News Apple M1 Max & M1 Pro: MacBook-Pro-SoCs sollen Intel, AMD und Nvidia düpieren

Status
Für weitere Antworten geschlossen.
lalalala schrieb:
Würde schon gerne meine Festplatte, bei einem eventuellen Weiterverkauf nach paar Jahren ausbauen. Ist auch wahrscheinlich bei mir der Grund, dass ich noch nie ein Macbook weiterverkauft habe und die alle bei mir noch rumstehen.

Sollte mittlerweile nicht auch der Speicher bei einem MacBook vergleichbar zum iPhone vollverschlüsselt sein und der Schlüssel dafür steckt in der Secure Enclave vom T2-Chip/M1?
Wenn du dem System den Befehl gibst das System zu wipen wird einfach der Schlüssel weggeworfen und der Inhalt der Datenträger ist danach nicht mehr entschlüsselbar.

Sollte sicher sein, kannst die (neueren) Geräte also eigentlich weggeben.

owned139 schrieb:
Anhang anzeigen 1135904

Naja, durch die Fanboybrille mag der M1 alles "deklassieren", neutral betrachtet ist er krass, aber nicht so krass, wie ihr es behauptet.

Nur dass wie schon gesagt die Effizienz-Kerne kaum Rechenleistung beitragen, es also praktisch gesehen viel eher ein Quadcore als ein Octacore ist (oder wenn man will ein "Fünfkerner") und die Stromverbrauchsklasse komplett unterschiedlich ist! Der Ryzen darf ganz offiziell etwa das Dreifache an Strom verbrauchen wie der M1 und ist in der Praxis auch darüber - und trotzdem erreicht der M1 60% der Leistung (d.h. der benötigten Zeit) des Ryzen.
Und der direkte (echte) Konkurrent, der Prozessor in dem Lenovo Carbon, hat wirklich überhaupt keine Chance und spielt eine ganze Klasse darunter.

@Xul Das hat so niemand gesagt, aber du kannst mir sicher Beispiele nennen...
Was gesagt wurde: Es war bei Apple seit Jahren bekannt, dass sie eigene Prozessoren nutzen wollen und deshalb war es vollkommen unrealistisch, dass sie nach den langen Jahren in denen AMD nur Müll abgeliefert hat (Die Leiden des jungen Phenom) und sie deshalb zu Intel eh keine Alternative gehabt hätten vor dem Schritt noch einmal kurz AMD nutzen, bevor sie dann ihre eigenen Prozessoren nutzen.

AMD kam mit dem Zen einfach viel zu spät um Apples Weg noch irgendwie zu beeinflussen und der Aufwand noch AMD für diese eine letzte prä-Apple-Silicon Generation zu nutzen wäre viel zu hoch gewesen.
Apple setzt sehr stark auf Thunderbolt und Thunderbolt wäre bei AMD (weil Intel-Technologie) erst seit relativ kurzer Zeit möglich - es war viel sinnvoller da einfach weiter Intel zu nutzen und Ressourcen, die für die Nutzbarmachung von Thunderbolt mit einem AMD-Prozessor notwendig gewesen wären, einfach in das Apple Silicon Team zu stecken.
Auch die Lieferbarkeit ist so ne Sache - bei Intel hat man Erfahrung wie die Liefersituation aussieht, wenn man aber nun (als Neukunde) bei AMD für alle Macs AMD-Prozessoren einkaufen will - und evtl. gäbe es nicht einmal für jede Geräteklasse einen Prozessor der passt - hätte man evtl. nicht die nötigen Stückzahlen bekommen.
(Ganz obendrein hätte es auch noch arschig ausgesehen, wenn man direkt vor der Einführung des M1 nochmal "Kumpel" mit AMD spielt um sie dann fallenzulassen - wenn man sieht wie pissig Intel gerade ist und sehr laut auch in der Werbung gegen Apple wettert, obwohl diese für diverse Macs sogar noch Kunde von ihnen sind, sieht man wie unsinnig es gewesen wäre, wenn man sich zwei Feinde gemacht hätte)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lalalala, BorstiNumberOne, foo_1337 und eine weitere Person
owned139 schrieb:
Welchen Sinn hat dann das Argument?
welchen Sinn haben "keiner braucht das weil ich..." - Argumente?
 
  • Gefällt mir
Reaktionen: foo_1337 und iSight2TheBlind
Kalsarikännit schrieb:
welchen Sinn haben "keiner braucht das weil ich..." - Argumente?
Nenn mir mal bitte einen Usecase, bei dem du Mobil viel Leistung über mehrere Stunden brauchst, ohne Steckdose in der nähe. Mir fällt keiner ein.
Das sind theoretische Beispiele, die weniger als 1% der Nutzer betreffen könnten und sowas ist keine Grundlage für eine gescheite Diskussion.
 
  • Gefällt mir
Reaktionen: Bestagon, Xul und Gortha
Im Regionalexpress von Oberlattich nach Dunnerlattich zu fahren und an einer App Bugs fixen zum Beispiel. Oder einfach keine Lust zu haben ein Netzteil mit zu nehmen wenn man eh nur einen Tag unterwegs ist.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
owned139 schrieb:
Nenn mir mal bitte einen Usecase, bei dem du Mobil viel Leistung über mehrere Stunden brauchst, ohne Steckdose in der nähe. Mir fällt keiner ein.
Das sind theoretische Beispiele, die weniger als 1% der Nutzer betreffen könnten.
Vielleicht bin ich ja der einzige, aber ich hab mein M1 Air fast nie während der Benutzung am Stecker. Und diese Freiheit will ich mir auch nicht mehr nehmen lassen bzw. das ist für mich einer der Gründe auf ein Pro wechseln zu wollen (noch längere Laufzeit).
Das Intel hier ist immer am Dock. Wenn ich mal damit unten bin und an nem Teams Call teilnehme und nebenher noch was anderes mache, ist der Akku nach ca 2h leer. Wer will das? Und nein, das ist kein macOS Phänomen. Den Kollegen mit den XPS geht es ähnlich.
 
  • Gefällt mir
Reaktionen: tidus1979, GERmaximus, Laphonso und eine weitere Person
Also reine Bequemlichkeit. Okay.
Abgesehen davon zogen diverse Laptops schon zum Release am M1 vorbei und zwar genau dann, wenn viel Speicher notwendig war. Alexibexi hat dazu ein Review gemacht. Du bist also schon mit dem M1 Kompromisse eingegangen, erwähnst diese nicht, aber bei der Konkurrenz ist jeder Edge-Usecase direkt ein valides Argument.
Mehr Fanboy geht nicht.
 
  • Gefällt mir
Reaktionen: Bestagon
owned139 schrieb:
Das sind theoretische Beispiele, die weniger als 1% der Nutzer betreffen könnten.
Oh, so genaue Zahlen! Da interessiert mich natürlich die zugrunde liegende Statistik! Wo finde ich die nochmal gleich?
 
owned139 schrieb:
Welchen Sinn hat dann das Argument?

Na dass ich die Leistung des 3700X in dem Fall nicht mitnehmen kann, da Thinkpad und Intel MBP deutlich langsamer sind. Also muss ich mich entscheiden, ob ich diese Aufgabe nicht unterwegs ausführe oder wenn doch, erheblich langsamer. Mit dem M1 muss ich das nicht.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und iSight2TheBlind
owned139 schrieb:
Nenn mir mal bitte einen Usecase, bei dem du Mobil viel Leistung über mehrere Stunden brauchst, ohne Steckdose in der nähe. Mir fällt keiner ein.
Das sind theoretische Beispiele, die weniger als 1% der Nutzer betreffen könnten.
Meine Freundin hat sich im Sommer ein Pro mit M.1 gekauft und ist insbesondere mit der Akkulaufzeit zufrieden. 2 Arbeitstage Videokonferenzen mit Protokollieren ohne Nachladen ist eine Hausnummer. Viel Last hat man natürlich nicht, aber ....
 
  • Gefällt mir
Reaktionen: Laphonso, BorstiNumberOne und foo_1337
Wie viele User passen eigentlich auf die ignore-Liste? Ich frage für einen Feund :-)
 
  • Gefällt mir
Reaktionen: jotecklen, tidus1979, GERmaximus und 2 andere
Ja super!
Wenn die Miner dann Apple SOCs zum Minen heranziehen, kann ich mir bald schon eine neue Grafikkarte leisten!
 
Carsti80 schrieb:
Meine Freundin hat sich im Sommer ein Pro mit M.1 gekauft und ist insbesondere mit der Akkulaufzeit zufrieden. 2 Arbeitstage Videokonferenzen mit Protokollieren ohne Nachladen ist eine Hausnummer. Viel Last hat man natürlich nicht, aber ....
Und es war keine Steckdose in der Nähe? Das erwähnte ich absichtlich ;)

calNixo schrieb:
Na dass ich die Leistung des 3700X in dem Fall nicht mitnehmen kann, da Thinkpad und Intel MBP deutlich langsamer sind. Also muss ich mich entscheiden, ob ich diese Aufgabe nicht unterwegs ausführe oder wenn doch, erheblich langsamer. Mit dem M1 muss ich das nicht.
Konntest du vorher auch nicht. Wenn viel Speicher benötigt wird, macht der M1 schlapp und die Intel Mobile-CPUs ziehen wieder an ihm vorbei. Sie sind auch nicht deutlich langsamer, sondern nur deutlich ineffizienter. Die Performance ist ähnlich bzw. je nach high-end Laptop sogar höher.

Kalsarikännit schrieb:
Oh, so genaue Zahlen! Da interessiert mich natürlich die zugrunde liegende Statistik! Wo finde ich die nochmal gleich?
Braucht ihr doch auch nicht? Ihr "extrapoliert" den M1 hoch zum Max und nehmt einen einzigen Benchmark als Grundlage. Wieso darf ich das also nicht auch machen? ;)

Kalsarikännit schrieb:
Wie viele User passen eigentlich auf die ignore-Liste? Ich frage für einen Feund :-)
Du WiDeRsPrIcHsT mIr AlSo KoMmSt Du AuF dIe IgNoRe oder wie? :-)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Bestagon und Gortha
Der Apple-Marketinggeblubber&FanBoythread kann echt zu, bis was konkretes da ist...
 
  • Gefällt mir
Reaktionen: Bestagon und Xul
Smeany schrieb:
Wenn die Miner dann Apple SOCs zum Minen heranziehen, kann ich mir bald schon eine neue Grafikkarte leisten!
Man geht von ca. 55MH/s maximal aus. Die kauft niemand mit der Absicht zu Minen. Es könnte höchstens für manche ein Mittel zu sein, den ROI schneller zu erreichen. Aber das wäre niemand, der dir eine Graka weggeschnappt hätte ;)
 
owned139 schrieb:
Konntest du vorher auch nicht. Wenn viel Speicher benötigt wird, macht der M1 schlapp und die Intel Mobile-CPUs ziehen wieder an ihm vorbei. Sie sind auch nicht deutlich langsamer, sondern nur deutlich ineffizienter.

Also in dem Bild von dem Benchmark steht etwas mit 4:30min für die Intel Laptops und 1:30min für den M1 Laptop. Also ist der M1 in diesem Fall 66% schneller. Das ist für mich schon deutlich langsamer. Aber wir reden offenbar aneinander vorbei.
 
@calNixo richtig, in dem einen Usecase. Haste dir den M1 gekauft, um ihn 24/7 zu benchmarken?
In anderen usecases ist er eben nicht schneller:


Sein MacBook i9 ist in jedem Videoschnitt-Test schneller, aber das wird dir hier natürlich keiner der Apple-Fanboys verraten ;)
 
Zuletzt bearbeitet von einem Moderator:
foo_1337 schrieb:
Das ist hier halt ein Henne/Ei Problem. MS investiert leider nicht genug und somit haben die Enduser nur lahme Notebooks mit Qualcomm.
Man muss da aber auch schon fair bleiben: Apple hat innerhalb von 20 Jahren quasi 4 Architekturwechsel mitgemacht und hat mit der Zeit da auch entsprechend die Hausaufgaben gemacht, was ihre Betriebssysteme aber auch die APIs zur Entwicklung von Software angeht.

Von Motorola zu PowerPC zu x86 und nun zu ARM. Die ersten Fallstricke hatte Apple damals mit den 68k zu den neuen PowerPCs, was dann damals auch in der Carbon-API mündete. Cocoa ist da dann auch der nächste Schritt gewesen und Apple ist wirklich versucht den Entwickler fast alles als API zur Verfügung zustellen, damit die Entwickler nicht zu hardware spezifisch programmieren müssen.

Bei Windows ist das leider nicht mehr so einfach möglich, da Microsoft irgendwann ja quasi fast alle anderen Architetkuren aus NT erst mal verbannt hat Windows als auch die APIs wirklich auf x86 hin entwickelt wurden. Dazu eben die Tatsache, dass die Dokumentation bei Microsoft lange sehr schlampig war und man manche Sachen erst mal nachträglich dokumentieren musste. In den 00er hat Microsoft gerne Informatik-Studneten und Bachelor-Absolvent angestellt, die die Win32-API dokumentiert haben.
foo_1337 schrieb:
Die sind zurecht unbeliebt und der Marktanteil von ARM Windows stagniert.
Sie bieten ja auch quasi keinen wirklichen Mehrwert, sie sind nicht wirklich günstiger, nicht schneller und dazu auch noch stark eingeschränkt.
foo_1337 schrieb:
Dementsprechend schlecht fällt der Support von 3rd Party Software aus.
Ich hoffe ja darauf, dass Microsoft endlich wirklich eine saubere und einheitliche API schafft. Win32, dann WinRT, jetzt dann doch Win32+WinRT irgendwie gemeinsam.

Microsoft hat so ein richtig schönes API-Chaos.
matschei schrieb:
Es ist etwas zweifelhaft wie ein syntetischer Benchmark zwischen Mac Arm und Win x86 vergleichbar ist.
Cinebench R23 läuft ja auf beiden Plattformen. Für M1: ca. 1500 1T, 7800 MT.
Ned Flanders schrieb:
Man sagt RISC ja gerne nach das sie so schlanke Architekturen sind im vergleich zu x86.
Das ist eher das, was man mit der Zeit aus den Unterschieden gemacht hat hat. Es ging bei RISC anfangs aber nicht unbedingt darum eine schlanke Prozessor-Architektur umzusetzen, sondern dass man einen einfachere/weniger komplexe Architektur hat.

In der Zeit, als RISC aufkam, waren die CISC-Befehle vorherrschend und auch wenn man durchaus auch schon die µOPs kannte und CISC-Befehle in µOPs zerlegte, war damit in den CPUs ein wildes hin und her springen zwischen zig Stationen verbunden. Der einfachste Weg Geschwindigkeit zu bekommen damals war es dann, dass man die Befehle doch direkt in eine Schaltung gegossen hat, was die CPUs immer komplexer gemacht hat.

CISC in seiner Form war primär "Komplex", weil die ersten CPUs zu einer Zeit entstanden sind, als diese quasi noch per Assembler programmiert wurden. Es war also wichtig, dass Befehle lesbar sind für Menschen und die Menschen sich gleichzeitig auch um viele Sachen überhaupt keine Gedanken machen müssen. Entsprechend ist CISC einfach für Menschen zu lesen und zu verstehen, musste aber damals auch bereits komplex in µOPs zerlegt werden oder gleich - wie geschrieben - fest implementiert werden.

RISC ist dann entstanden, als sich langam Compiler und damit verbunden auch Programmiersprachen durchgesetzt haben und Menschen nicht mehr in Assembler programmierten, sondern eben in Pascal, Basic, C und C++ und Co. Es war von dem Zeitpunkt nicht mehr wichtig gut lesbare Befehle für die CPU zu haben, sondern man kann sich auf die atomaren Operationen konzentrieren. Das bedeutet Anfangs auch, dass ein Decoder - je nach RISC-ISA-Design quasi vollständig wegfallen konnte und nun das, was man bei CISC als µOPs kannte, die eigentlichen OPs waren.

Ebenso dazu kommt, dass die Fertigungen damals bestimmte Limits hatten und man auch damals dann bereits merkte: Auf den Arbeitsspeicher wartet man. Da man bei den frühen RISC-Desigsn keinen Decoder brauchte, hat man anfangs sogar sehr viele Schaltungen sparen können und hat diese Schaltungen dann lieber in Register und eben dann auch eine 2 ALU anfangs gesteckt - eine 2 ALU kam bei x86 erst mit dem Pentium. Da war man damals dann bei den RISC-CPUs oft schon bei einer zweiten ALU.

Es ging also auch damals nich darum, eine schlanke CPU zu bauen, sondern die damaligen Ressourcen möglichst effektiv zu nutzen und da hatte RISC zu dieser Zeit gewaltige Vorteile gegen CISC, denn RISC benötigte quasi keinen Decoder, während CISC sehr komplexe Decoder brauchte.

Was viele hier vermutlich nicht wissen: RISC und auch speziell ARM waren Anfangs ihren x86-Pendants aber auch den Motoral 68k im Punkt Geschwindigkeit überlegen und konnten gleichzeitig sogar günstiger produziert werden. Der Acorn Archimedes war, als er heraus kam, ein Geschwindigkeitsmonster.

Nur scheiterte Acorn damals mit dem Archimedes an etwas sehr wichtigem und was quasi bis heute die Marktmacht von x86 und damit Intel und Microsoft zementiert hat: Softwarekompatiblität! Die Stärke von x86 war, dass man quasi ohne Probleme 1985 Software von 1980 laufen lassen konnte und auch 1990 und 1995 lief quasi Software von 1980 und das ist quasi auch heute noch so.

Es ging aber bei RISC und ARM nicht um eine schlanke Architektur, sondern es ging immer um eine möglichst effiziente und schnelle Architektur.

Ned Flanders schrieb:
Davon ist hier nichts mehr zu sehen.
Davon war früher auch nichts zusehen, bis sich ARM erst mal in die Nische der Embedded und Mobile-Geräte zurück gezogen hat und man dann lieber sparsame Designs umsetzte.

Man verwechselt die Grundziele einer möglichst einfachen und effizienten Architektur oft mit einer schlanken Architektur, dass ist aber falsch.
Ned Flanders schrieb:
Das macht sie am Ende halt auch sparsam, weil sie weit weniger hoch takten weil das ganze Ding halt viel breiter ausgelegt ist.
Richtig, aber für diese Bereite muss man auch einiges machen.

Ich wäre aber mal gespannt, wie Groß ein Golden Cove Kern ist und wie groß die Firestorms sind um dann genauer zu vergleichen.
 
  • Gefällt mir
Reaktionen: Ned Flanders und foo_1337
owned139 schrieb:
Also reine Bequemlichkeit. Okay.
Abgesehen davon zogen diverse Laptops schon zum Release am M1 vorbei und zwar genau dann, wenn viel Speicher notwendig war. Alexibexi hat dazu ein Review gemacht. Du bist also schon mit dem M1 Kompromisse eingegangen, erwähnst diese nicht, aber bei der Konkurrenz ist jeder Edge-Usecase direkt ein valides Argument.
Mehr Fanboy geht nicht.
Also mehr Hateboy geht ja nicht .........
 
  • Gefällt mir
Reaktionen: mcasd, BorstiNumberOne, ldos und eine weitere Person
iSight2TheBlind schrieb:
Sollte mittlerweile nicht auch der Speicher bei einem MacBook vergleichbar zum iPhone vollverschlüsselt sein und der Schlüssel dafür steckt in der Secure Enclave vom T2-Chip/M1?
Wenn du dem System den Befehl gibst das System zu wipen wird einfach der Schlüssel weggeworfen und der Inhalt der Datenträger ist danach nicht mehr entschlüsselbar.
FileVault war bei mir ständig an.
Also FileVault ausschalten, Formatieren, eventuell NVRAM Reset, sollte genügen?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben