News Geekbench: Apples M3 Max schlägt den Snapdragon X Elite teils deutlich

sueside schrieb:
Geekbench testet zB den Unschärfefilter (wie im Videocall), KI Objekterkennung (bei Fotos im Album), SQLlite, libjpeg-turbo, Clang, HTML5 und LZMA. Die meisten dieser Libraries und Funktionen verwende ich unbewusst täglich am Laptop und Smartphone unabhängig vom Betriebssystem.

Ich mein, wenn die CPU/GPU bei diesen Dingen schnell läuft, kann man schon sagen, dass sie den Alltag durchaus beschleunigen kann.
Nun, vor allem bei Benchmarks die ausschließlich Webanwendungen testet ist Apple j häufig um den Faktor 2 besser.
Tester nennen das dann Snapiness.
Und in Real-World Vergleichen wird ja häufig gelobt wie responsive die Systeme sind von Apple.
Unschärfefilter oder Brushes für Masken die deutlich flüssiger laufen auf dem Mac als auf den jeweiligen 5k Windows Laptops.
Die dazu noch am Strom sein müssen um überhaupt in die Nähe der Leistung zu kommen.
Eine 3060/70/80 auf battery? Hinter einer M2 Max GPU.

Also bei all den Cinebench Ergebnissen der letzten Jahre die vermeintliche Real World Ergebnisse zeigen sollten, da finde ich die Diskrepanz zwischen Tests und echten Szenarien schon bedenklich.

Sicher, die Tests sind ein Anhaltspunkt aber sollten auch nicht mehr als 20% in der Bewertung ausmachen.
 
CDLABSRadonP... schrieb:
@DennisK. Wieso zeigt das Symbolbild der News den M3 Pro an Stelle des M3 Max?

Weil der M3 Max zu groß war für das kleine Vorschaubild, hab jetzt aber mal n bisschen rumgespielt und den symbolischen M3 Max eingefügt bekommen. Macht so auch mehr Sinn ^^
 
  • Gefällt mir
Reaktionen: bart0rn und knoxxi
jetzt ist aber auch die Frage bei den Prozessoren:

Kommt diese hohe Leistung eventuell durch Verfahren, die Intel etc durch Spectre und Meltdown ggf einschränken musste und darum starke Leistungseinbußen hatten? Ist der M3 eventuell auch dagegeben anfällig dadurch und muss Apple dann diese Leistungseinschnitte auch vornehmen und liegt dann wieder weit zurück?

Denn eine Spectre Lücke ist ja erst kürzlich bekannt geworden, die nach fast einen Jahr immer noch nicht offizell gefixt war
 
JohnWickzer schrieb:
😂 😂 😂 😂 ja und der kommende SD X Elite Plus Max schlägt den M3 Max um das dreifache. Toller Vergleich!
Wenn dieser fiktive Chip das irgendwann tut, bekommt er natürlich auch eine eigene News. Solange hat sich aber Apples neuer 2023er-Notebook-Chip in ersten Benchmarks vor dem X Elite positioniert der erst 2024 rauskommt.

JohnWickzer schrieb:
Stimmt, die Überschrift ist fast schon lächerlich wenn man sich etwas auskennt^^
Mir ist jetzt nicht ganz klar wie der Vergleich in der Überschrift lächerlich erscheint. Qualcomms 12 Performance-Kerne die 80w schlucken einem Chip gegenüber zu stellen, der ebenfalls 12 Performance-Kerne und dazu 4 kleinere e-Cores hat (und ähnlich viel verbrauchen wird) erscheint mir nicht sonderlich weit hergeholt. Ich hab aber auch keinen Abschluss in dem Fachgebiet, insofern erleuchte mich gerne ^^
 
  • Gefällt mir
Reaktionen: pjo
Ich möchte einige alltägliche Vergleiche anführen. Die Werbegrafiken von Apple erscheinen häufig nichtssagend und enthalten selten Angaben zur Herstellungsweise. Es bleibt für mich unverständlich, wie Menschen diese Informationen unreflektiert übernehmen und unkritisch akzeptieren. Es scheint, als würden einige Menschen gelegentlich dazu neigen, die Realität so zu interpretieren, dass sie in ihr Weltbild passt.

Man kann durch die Welt gehen, wahlweise mit offenen oder geschlossenen Augen, wie ich immer zu sagen pflege. In unserer heutigen vernetzten Welt ist es jedoch nicht schwer, eigene Vergleiche anzustellen, selbst wenn man nicht immer die neueste Hardware besitzt.

Vor der Präsentation meines Vergleichs möchte ich einige Gedanken teilen. Ein erheblicher Teil der Nutzer verwendet Computer für alltägliche Aufgaben wie Surfen, Streamen, soziale Medien, das Verfassen von Briefen und die Beantwortung von E-Mails. All dies lässt sich auch mit einem Smartphone, Tablet oder einem älteren Computer erledigen. Die Anzahl der Prozessorkerne, sei es 4 oder 32, spielt für derartige Anwendungen keine entscheidende Rolle. Wer jedoch erhebliche Rechenleistung benötigt, beispielsweise für Videoschnitt, 3D-Rendering oder KI-Berechnungen, etc., wird auf eine Workstation mit mehreren Monitoren zurückgreifen. Warum sollte man das auf einem Notebook erledigen, es sei denn, es handelt sich um ein Hobbyprojekt? Speicher und RAM sind in der Regel kostengünstig aufrüstbar, wenn zusätzliche Leistung benötigt wird. Die Aufpreise bei Apple sind schwer nachvollziehbar und scheinen den gesunden Menschenverstand zu übersteigen. Apple-Notebooks versuchen auf seltsame Weise, in allen Bereichen zu glänzen, aber warum? Es ist fraglich, ob sie wirklich für alles geeignet sind, und wenn es um hohe Leistung geht, ist das nicht ihre Hauptstärke.

Hier ist ein Vergleich aus dem Videoschnittalltag zwischen einem M2 Ultra (Studio) und verschiedenen PCs, bis hin zur 4090: https://www.davinci-resolve-forum.de/thread-4416.html?highlight=4090

Nicht nur, dass die 4090 (Gesamt-PC Wert von 4000 €) mehr als doppelt so schnell ist wie der M2 Ultra, der knapp 8000 € kostet (und den nur wenige besitzen, was den Abstand noch größer macht), sondern wenn man den Energieverbrauch berücksichtigt, verbraucht ein untervolteter PC kaum mehr Strom als ein M2 Ultra (Stromverbrauch vs Zeit die benötigt wird die Aufgabe zu erledigen). Wenn noch mehr an Leitung gefordert wird, kommt eine zweite oder dritte 4090 hinzu und ist für DR kein Problem damit umzugehen. Ich empfehle, den gesamten Thread anzusehen und sich offen zu zeigen. Die Anwendungen entsprechen den Anforderungen des durchschnittlichen Profialltags im Videoschnitt. Beim Gaming verhält es sich ähnlich, weshalb Apple in diesem Bereich kaum eine Chance hat.


Ehrlich gesagt, was machen die meisten Nutzerinnen und Nutzer, wenn sie vor ihrem Computer sitzen? Sie schauen YouTube, beantworten E-Mails, lesen im Internet usw. Wozu benötigen sie also dringend eine hochleistungsfähige CPU XY? Es ist jedoch immer wieder erstaunlich, wenn die Karten mit dem Energieverbrauch und der Umweltauswirkung ausgespielt werden. Wie viele Apple-Nutzer mit M1-Chips haben darüber nachgedacht, auf den M3 umzusteigen, falls sich dies als sinnvoll erweisen würde? Viele haben vielleicht zumindest kurz darüber nachgedacht und deshalb auch die Präsentation mit Interesse verfolgt?

Es ist absurd, was teilweise in das Apple-Marketing hineininterpretiert wird. 80 % der Apple-Nutzer wissen nicht einmal, wie viele Kerne ihr iPhone hat. Wenn ich mir vorstelle, wie viele M1 und M2 Geräte mangels AV1-Unterstützung nicht einmal mehr für Netflix und Co. taugen werden, wenn sie sehr alt sind, oder die kleine 256GB SSD ihre Lebenszeit überschritten hat, wird mir schlecht.
 
  • Gefällt mir
Reaktionen: Valentin023, Beg1 und janky2013
1698939629505.png

Warum nicht einen 7800x3d (15500) oder 7950x3d (22300) mit in die Liste aufnehmen?
Mein 5800x3d schafft schon 10700 @75 Watt
 
bensen schrieb:
Wow, der 7950x ist wieviel schneller? 1%?
Schau dir mal die Geekbenchwerte des 7950x an, dann merkst du wie albern die Anschuldigungen sind.
https://browser.geekbench.com/v6/cpu/3342887
Wenn man schaut, gibt es einige Ergebnisse in der Range. In der News sind es im Diagramm 20,4k Punkte für den Intel und 21,08 für den M3. Das sind ebenfalls nur 3% Unterschied.

Selbst wenn Ryzen am Ende ebenfalls geschlagen wäre (ich finde Geekbench als Quelle schwierig. Ich glaube, im Mittel liegt Ryzen tatsächlich bei 19k Punkten), finde ich kann man die CPUs da nicht auslassen. Schlägt man sie, ist man doch besser und das ist gute Werbung. Schlägt man sie nicht, kann man sich auf jeden Fall in guter Nachbarschaft sehen. Absolut richtig, dass es am Ende nur um einstellige Prozentbereiche geht.

Ich sage ja auch, wahrscheinlich hat der M3 das Ergebnis mit einem besseren Watt pro Punkt Verhältnis geschafft. Ziemlich sicher sogar. Allein dank der neueren Fertigung. Dennoch Geschmäckle direkte Konkurrenz (weil ähnliche Scores) auszulassen.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Nach dann doch lieber den Snapdragon bei 23Watt und auf 11% Leistung verzichten. MultiCore ist dieser schnell genug und wenn man mehr braucht, kann kann man auf einen Rechenknecht zurückgreifen, der einem nicht durch Lüfter nervt, da dieser irgendwo im Rechenzentrum oder Keller liegt. Bei Preis wird man dann trotzdem erheblich günstiger sein als beim Apple.
 
  • Gefällt mir
Reaktionen: Forlorn
Hier im Thread konnte man wieder lesen, dass man mit ARM ja nicht spielen kann und bei MacOS sowieso nicht: das ist einfach Quatsch. Selbst mit meinem 0815 M1 8GB kann ich locker spielen. Man kriegt im Moment nicht jedes Spiel nativ, manche müssen über Wine zum Laufen gebracht werden. Das geht nicht immer. Aber Leistung ist genug da und die gängigen Spiele-Engines laufen nativ auf ARM, wenn der Hersteller das anschaltet.
 
Bediener schrieb:
Die Anwendungen entsprechen den Anforderungen des durchschnittlichen Profialltags im Videoschnitt. Beim Gaming verhält es sich ähnlich, weshalb Apple in diesem Bereich kaum eine Chance hat.


Ehrlich gesagt, was machen die meisten Nutzerinnen und Nutzer, wenn sie vor ihrem Computer sitzen? Sie schauen YouTube, beantworten E-Mails, lesen im Internet usw. Wozu benötigen sie also dringend eine hochleistungsfähige CPU XY? Es ist jedoch immer wieder erstaunlich, wenn die Karten mit dem Energieverbrauch und der Umweltauswirkung ausgespielt werden.

Ich verfolge die News zu Apples Hardware immer mit Interesse und bin von der Entwicklung beeindruckt, allerdings würde ich mich niemals in das Ökosystem begeben (u.a. aus den von dir genannten Gründen).

Es ist mir auch ein Rätsel, warum vor allem Apple-Fans so häufig neu kaufen möchten, wie du schon sagst bemerken die meisten zwischen M1 und M3 Max einfach keinen Unterschied.
Ergänzung ()

Forlorn schrieb:
Hier im Thread konnte man wieder lesen, dass man mit ARM ja nicht spielen kann und bei MacOS sowieso nicht: das ist einfach Quatsch.

Also für AAA-Games ist ARM/MacOS keine echte Alternative.
 
Hm naja

Das ist 3nm vs. 4nm

Und Apple hat sich die komplette 3nm Produktion bei TSMC erkauft.

Schwieriger Vergleich.
 
  • Gefällt mir
Reaktionen: ecth
Forlorn schrieb:
Hier im Thread konnte man wieder lesen, dass man mit ARM ja nicht spielen kann und bei MacOS sowieso nicht: das ist einfach Quatsch. Selbst mit meinem 0815 M1 8GB kann ich locker spielen. Man kriegt im Moment nicht jedes Spiel nativ, manche müssen über Wine zum Laufen gebracht werden. Das geht nicht immer. Aber Leistung ist genug da und die gängigen Spiele-Engines laufen nativ auf ARM, wenn der Hersteller das anschaltet.

Quatsch?

Warum zögert Apple seit Jahren, in die milliardenschwere Spieleindustrie einzusteigen, obwohl es sich um einen riesigen Markt handelt (2022 werden weltweit rund 3,2 Milliarden Spieler gezählt)? Gibt es ein aktuelles AAA-Spiel auf dem Mac, das auch nur annähernd die Leistung eines aktuellen PCs bietet? Wir sprechen hier nicht von veralteten Spielen aus vergangenen Zeiten, die gelegentlich für den Mac erhältlich sind, sondern von einem Vergleich mit den neuesten PC-Spielen.

Im Bereich der Videobearbeitung mit DaVinci Resolve, das auch nativ für M1, M2 und 3 CPUs verfügbar ist, stößt der M2 Ultra bei anspruchsvollen Aufgaben wie dem Entrauschen bereits an seine Leistungsgrenze, während eine 4090-Grafikkarte auf einem PC unterfordert ist. Auffällig ist, dass Apple bei GPU-lastigen Aufgaben stark zurückfällt. Warum Apple hier keine Vergleiche zieht, ist nicht schwer zu erraten.
Wunschdenken vieler Apple-Fans macht es auch nicht besser 😊.

Ich möchte die Frage aber beantworten!

Daher auch mal einen echten Vergleich zeigen und nicht nur plappern (wer mir nicht glauben will, kann gerne googeln):

Das Spiel Lies of P läuft auf Metal (NATIVE für Mac) und kann daher sehr gut mit der PC-Welt verglichen werden:
M1 Pro 1920x1200, Medium, = 55 FPS
M2 Pro 1440p, Hoch = 60 FPS

4090 4K, Ultra = 170 FPS
4090 1920x1200, Ultra = 330 FPS

Zum Vergleich:
Die alte Nvidia GTX980, Markteinführung 2014, liegt hier etwa gleichauf mit der M1 Pro in der Leistung, siehe beliebige Benchmarks im Netz.

Gibt es noch weitere Fragen?
 
  • Gefällt mir
Reaktionen: Seven2758 und Kraeuterbutter
Was alle hier vergessen Apple bringt die Leistung nur im Akkubetrieb…
die Intel Kisten müssen noch alle angeschlossen werden am Strom damit die überhaupt mal richtig was liefern
 
KOV schrieb:
Intel und AMD müssen sich auf jeden Fall schleunigst etwas einfallen lassen, sonst sind sie sehr schnell weg vom Fenster. Siehe Atari, Commodore, Nokia …
Wird Apple etwa von AMD und Intel auf andere wechseln?
 
Was qualcom braucht ist apples Mogel-Packung,
was ich damit meine, die apple chips schalten auf ein x86 memory model um wenn code in rosetta 2 ausgeführt wird, das spart massiv an memory barier instruktionen.
Damit ist apples "emulation" von x86_64 viel schneller als was Windows mit dem regulärem ARM64 Befehlssatz machen kann.
 
  • Gefällt mir
Reaktionen: jlnprssnr
Bediener schrieb:
Das Spiel Lies of P läuft auf Metal (NATIVE für Mac) und kann daher sehr gut mit der PC-Welt verglichen werden:
M1 Pro 1920x1200, Medium, = 55 FPS
M2 Pro 1440p, Hoch = 60 FPS

4090 4K, Ultra = 170 FPS
4090 1920x1200, Ultra = 330 FPS
Man kann vieles kritisieren, aber ich möchte dich nur auf eine Sache hinweisen:

M2 Pro GPU Stromverbrauch: 20W
4090 Stromverbrauch: 330W (mit Peaks bei weit über 400W) - 16x mehr

Du findest also den Beschleunigungsvergleich zwischen einem Audi A2 und einem Bugatti Chiron völlig fair?
 
  • Gefällt mir
Reaktionen: jlnprssnr
Lieber leicht gemogelt und gute Werte, als sture software-emulation und scheiß werte. Also ja, bitte machen!

Wenn es jetzt noch ARM mit dedizierter GPU gäbe, würde es richtig heiß werden. Appels GPU ist nur so "performant" weil alles mögliche per Hardwarebeschleunigung läuft. Daher auch die super Effizienz. Sobald man eine Funktion braucht die nicht in Hardware gegossen ist, merkt man das da deutlich Luft nach oben ist. Und bevor ich geflamed werde: Jaja, die integrierte Apple GPU ist schon ganz gut. Für Handygames :D
 
Zurück
Oben