News Grace: Nvidias erste CPU auf ARM-Basis erscheint 2023

Zibbe schrieb:
X86 ist ja auch so um die 30 Jahre alt wird Zeit das die CPU weiter entwickelt wird ich bin kein Techniker der ich mit der Materie gut Auskennt aber ich denke das x86 eine gute Sache war vor 30 Jahren und auch noch vor 20 Jahren aber nun wird es Zeit das sich der Markt weiter entwickelt.

Die Vorläufer der ARM Architektur stammen ebenfalls aus den 80ern und sind nicht mehr ganz taufrisch.

Auch x86 hat sich enorm weiterentwickelt. Schon der erste Pentium mit seiner Pipeline, dem Zerhacken in Micro Ops und out of order excecution hatte nicht mehr viel mit dem Original 8086 zu tun. Etwas übertrieben würde ich sagen, dass der eher einen Hardware x86 Emulator hatte.

Viele Dinge wie fließkoimmaeinheiten und die ganzen Befehlserweiterungen sse usw. sind komplett neu.

Ohne der ganz große Experte zu sein, habe ich den Eindruck dass die grundsätzlichen Unterschiede zwischen den Architekturen immer kleiner werden, weil es für viele Dinge inzwischen klar ist, was der beste Weg ist. Die Unterschiede liegen dann eher im Detail.
 
  • Gefällt mir
Reaktionen: Hayda Ministral, Mike-o2 und Klever
Herdware schrieb:
Das ist schon Mitte der 90er passiert, mit dem Pentium Pro.
Seit dem arbeiten alle modernen x86-CPUs intern mit schlanken Micro Operations, also quasi wie RISC-CPUs ala ARM. Die x86-Kompatibilität wird nur noch über einen vorgeschalteten Befehlsdecoder erreicht.
Ich dachte, man hätte damals nicht alles gestrichen, aber da müsste ich vielleicht noch mal nachlesen, kann daher durchaus sein. Die Frage ist halt, ob man bei der aktuellen x64 Umsetzung nicht auch noch die x32 Teile sparen könnte, oder ob man hier noch Einsparpotential hat.
 
Klever schrieb:
Und für Erhöhung des Selbstwertgefühls eignen sich heute andere Sachen viel besser, wie z.B. ein fetter Porsche.

Ich mag ja eher Yachten und Flugzeuge :D

Jeder gibt mit dem Maximum an, was er sich leisten kann und was in seinem Umfeld "besonders" ist.

Bleiben wir doch beim Thema:

ARM als Basis für eine CPU ist nicht dämlich und die Tatsache, dass Nvidia im Bereich HPC ein Stück vom Kuchen abhaben will, ist absolut verständlich.

Gerade für hoch spezialisierte Anwendungen, ist der ARM einfach besser geeignet. Ähnlich wie ein KfZ. Wer will aber mit dem Auto nach Australien fahren?

Meiner persönlichen Meinung nach, werden sich PCs aber entwickeln wie Rechenschieber. Sie werden verschwinden. Die Rechenleistung wird von anderen Maschinen übernommen werden und die heutige Leistung, wird in 20 Jahren nur noch müde belächelt werden.

mfg
 
Zibbe schrieb:
X86 ist ja auch so um die 30 Jahre alt wird Zeit das die CPU weiter entwickelt wird ich bin kein Techniker der ich mit der Materie gut Auskennt aber ich denke das x86 eine gute Sache war vor 30 Jahren und auch noch vor 20 Jahren aber nun wird es Zeit das sich der Markt weiter entwickelt.
Die Wurzeln der IA-32 liegt nun bereits 43 Jahre zurückzunehmen da liegt auch das Hauptproblem.
paul.muad.dib schrieb:
Die Vorläufer der ARM Architektur stammen ebenfalls aus den 80ern und sind nicht mehr ganz taufrisch.
Nur das ARM damals schon auf einen anderen Ansatz hin entwickelt wurde. Intel hat damals eine CPU mit möglichst wenig Register entwickelt, während man bei ARM schon damals entsprechend wusste, das Kopiervorgänge Zeit und Energie kosten.
Bei IA32 gibt es 8 Register mit festen Aufgaben, Daten müssen also kompliziert aus den Caches oder dem Speicher geholt werden. Nur die FPU hatte 8 Register. Die ersten wirklich "allgemein" nutzbaren Register kamen mit der x64 Erwieterung - 8 zusätzliche freie Register für den INT-Teil, 8 zusätzliche für die FPU.

Erst mit AVX512 kommen in der FPU noch mal 16 Register dazu.

Dazu kommt:
paul.muad.dib schrieb:
Auch x86 hat sich enorm weiterentwickelt. Schon der erste Pentium mit seiner Pipeline, dem Zerhacken in Micro Ops und out of order excecution hatte nicht mehr viel mit dem Original 8086 zu tun. Etwas übertrieben würde ich sagen, dass der eher einen Hardware x86 Emulator hatte.
Ja und nein, die Befehle wurden bereits vor dem Pentium in mikroOps zerstückelt, der Pentium hat dann die Pipeline eingeführt, arbeitete aber noch immer primär nach CISC. Erst der Pentium Pro hat dann einen Decoder von CISC zu "RISC" eingeführt und genau hier liegt aber auch das Problem.

Während ARM recht klare OPs hat und eine einfachen Decoder/Encoder für RISC zu MikroOPs, ist dieser bei x86 um ein Vielfaches komplexer. Ist aber "schnell" genug. Nur ist der Decoder doch eine ganze Ecke komplexer und größer als bei ARM.

Bei x86 müssen die OPs entsprechend der Länge zerlegt werden, dann anhand der Länge entschieden werden, ob es ein einfacher oder komplexer Befehl ist und dann entsprechend in die "simplen" MikroOps für die Pipeline zerlegt wird. Bei ARM ist diese Zerlegung wesentlich einfacher.

x86 hat sich weiter entwickelt, aber viele Paradigmen der späten 70er leben bis heute auf, während ARM mehrere auch drastische Änderungen hatte, die Code aus den 90er heute inkompatibel mit modernen ARM CPUs machen, während man x86-Code aus den 80er noch ausführen kann.

x86 ist leistungsfähig, CISC hat aber primäre Vorteile wenn man als Mensch Assembler-Code schreibt, weil es "besser" zu lesen ist, RISC ist wiederum besser, wenn es um Maschinen geht.
 
  • Gefällt mir
Reaktionen: Kalsarikännit, M@tze und paul.muad.dib
Oberst08 schrieb:
Die Frage ist halt, ob man bei der aktuellen x64 Umsetzung nicht auch noch die x32 Teile sparen könnte

x64 bzw. AMD64 ist ja nur eine simple Erweiterung von x86. Anders als z.B. Intels ambitionierteres IA64 des gescheiterten Itanium, das eine komplett neue Architektur war.
Ich denke deshalb nicht, dass man viel Einsparen oder anderweitig optimieren könnte, indem man bei x86-CPUs (native) 32Bit-Kompatibilität aufgibt.

Wie gesagt, echte Nachteile bei der Architektur sehe ich für x86 sowieso eher weniger. Jedenfalls was größere CPUs für Notebooks, Desktops und Sever angeht, wo der CISC-Decoder nicht so ins Gewicht fällt.
Aber ARM hat zumindest im Augenblick den erwähnten großen Vorteil, dass sich damit jeder ein SoC genau nach seinen Anforderungen maßschneidern kann. Das dürfte auch für Apple der wichtigste Grund gewesen sein, auf ARM zu wechseln.
 
  • Gefällt mir
Reaktionen: Klever
paul.muad.dib schrieb:
Ich frage mich nur, ob ARM hier wirklich besser ist, oder es nur an den lang anhaltenden Problemen bei Intel liegt. Denke AMD ist einfach zu klein, um insgeaamt bei CPU Trends einen Unterschied zu machrn
ARM ist hier besser. Bzw RISC ist hier besser als CISC. Auch AMD Prozessoren können z.B. mit dem m1 nicht mal annähernd mithalten, was Leistung pro Watt angeht, und vor allem, wie konstant niedrig der Stromverbrauch überhaupt gehalten werden kann, wenn mal aktiv etwas passiert.
z.B. bei Videokonferenzen, kann man bei x86 Notebooks dem Akku beim fallen zugucken, den M1 Macbooks ist das egal. Da kannst du aus den ausgelesenen Daten (CPU Auslastung, Taktraten, Stromverbrauch, Temperatur etc) kaum auslesen, ob nun eine Videokonferenz mit 100 Teilnehmern läuft oder nicht.

Dafür gibt's aber wohl wiederum Nachteile an anderen Punkten. Aber so wie es aktuell aussieht, nichts großartig relevantes, was für die Praxis nicht gelöst werden könnte.

Zibbe schrieb:
ich hoffe nur dass das alles Bezahlbar bleibt. Wenn ich daran denke das ein Handy mit einer ARM CPU mal so eben 15hundert Euro Kostet dann will ich nicht wissen was eine PC/Laptop Version mit ARM kostet. Warten wir es ab. Solange muss meine X86 noch reichen oder ich höre auf mir Computer und deren Zubehör zu kaufen...........
Ein Handy besteht aus mehr als nur den SoC.

Ein Snapdragon 855 hat beispielsweise anscheinend 53 Dollar gekostet. Der Snapdragon 845 war 45 Dollar, wobei die Hersteller 65 Dollar anscheinend zahlen mussten.

Etwas teurer bei Snapdragon 865 und 875. Der Chip alleine (wird oft ja als "Package" verkauft wo noch andere Dinge dabei sind, wie z.B. das 5G Modem beim 865er) war beim 865er 80 Dollar, beim 875er soll es 135 Dollar werden.
Und das waren alles High End Modelle.
Ein immer noch relativ schneller Snapdragon 765g kostet 40 Dollar.

Wenn es dich interessiert, hier die Einzelteil preise der aktuellen iPhones. Der A14 z.b. kostet 40 Dollar~

Gehen wir aber zu Computern, hier dem Macbook, ein wenig ausführlicher:
Im Vorgänger des M1 Modells war ein Intel Core i5-8257U verbaut. Intel gibt hier 320 Dollar ein. Laut Info-kästchen ist das der Preis für direkte Kunden von Intel bei einer Bestellung von 1000 Stück. Mehr Stück = etwas geringerer Stückpreis.
Das Upgrade auf einen Intel Core i7-8557U kostet bereits 431 Dollar.
Du darfst davon ausgehen, dass Hersteller von Laptops diesen Preis mindestens 1:1 direkt an den Kunden weitergeben, eher nochmal eigenen Gewinn oben drauf packen.

Das teurere 4-Port Modell hat ähnliche Preise für i5 und i7. Der i7 bringt maximal paar % mehr Leistung, die nur durch ein paar einzelne 100 Mhz mehr Takt kommen.
Das 300-420€~ sind auch etwa die Preise für 11th Gen Tiger Lake, die man so in 600€-3000€ Laptops findet.

Für den M1 Chip, der mit den oben genannten Intel Chips schlitten fährt, soll der Preis <100 Dollar betragen: https://wccftech.com/apple-custom-mac-cpu-cost-node/

Also eher deutlich günstiger als Intel's Preise. Wobei es dabei natürlich sehr viele verschiedene Parameter gibt.
 
[wege]mini schrieb:
Meiner persönlichen Meinung nach, werden sich PCs aber entwickeln wie Rechenschieber. Sie werden verschwinden. Die Rechenleistung wird von anderen Maschinen übernommen werden und die heutige Leistung, wird in 20 Jahren nur noch müde belächelt werden.

Bezüglich Rechenleistung stimme ich dir auf jeden Fall zu, für heutige Heimanwendersysteme ist ja auch die Leistung eines SGI Octane 2, eines mal non plus ultra Systems für professionelle grafische Rendering 3D Anwendungen von vor 20 Jahren, ein Klacks, weil die Technik seit damals um ein vielfaches leistungsfähiger wurde.

Aber einen PC gab es dementsprechend damals wie heute, in der heutigen Form mehr oder weniger seit den späten 70ern. Interessanterweise hat Apple diesbezüglich schon damals ihren proprietär verschlossenen Kurs gefahren, spätestens mWn mit dem Mac 2. Da kann man fast schon sagen, die bleiben ihren Prinzipien treu, was aber in dem fall für den Anwender meiner Meinung nach nichts gutes enthält.

Ob die PCs verschwinden werden, sicherlich werden sie das falls was vergleichbares in punkto Versatilität sowie anwendergesteuerte Anpassung auf den Markt kommt. Dass PCs verschwinden werden, prophezeit man schon lange, trotz Smartphone/Tablet und Konsole sind sie aber immer noch da, und überaus nützlich für den Heimanwendermarkt sowie für professionelle Lösungen, die man bei Bedarf auch nach Wunsch nach dem Kauf noch konfigurieren bzw upgraden kann. Was mindestens für mittelständische Unternehmen (z.B. für Marketing Agenturen, die für Animation und 3D Rendering Aufträge beziehen) wichtig ist, die sich z.B. nicht so leicht leisten können, eine Mehrzahl an neuen Platformen gleichzeitig für einen Ersatz zu beziehen.

Was natürlich für Großkunden anders aussehen kann, aber da sieht man mMn gut dass die Anwendungszenarien je nach Zielgruppe der Platformen sich unterscheiden, und was für einen Großkunden für einen spezialisierten Fall relevant sein kann, muss nicht genauso für ein mittelständisches Unternehmen oder einen Heimanwender gelten. Insofern aber für PCs diverse oder auch nur eine Anwendernische in der einen oder anderen Größe existieren wird, werden auch sie nicht aussterben, meiner Meinung nach.

Sieht man auch daran, dass Apple mit ihrem propritären Kurs bis jetzt eine Minderheit in dem Heimanwedermarkt darstellen, ein verschlossenes System bringt halt Vorteile für das Unternehmen in Form der Kontrolle über die Preisgestaltung als Monopolist, resultiert aber auch in einem niedrigeren Marktanteil durch die allgemein überzogene Preisgestaltung sowie die Nachteile, die sich aus einem propritären System bei dem Anwender ergeben, der sich diesbezüglich für einen software- sowie hardwareseitig offeneren Ansatz entscheidet.
 
Ich sehe es kommen: In ein paar oder mehr Jahren basieren unsere Desktop-PCs auch auf ARM und nicht mehr auf x86. Wer weiß?! 🧐
 
Darkseth88 schrieb:
ARM ist hier besser. Bzw RISC ist hier besser als CISC. Auch AMD Prozessoren können z.B. mit dem m1 nicht mal annähernd mithalten, was Leistung pro Watt angeht, und vor allem, wie konstant niedrig der Stromverbrauch überhaupt gehalten werden kann, wenn mal aktiv etwas passiert.
z.B. bei Videokonferenzen, kann man bei x86 Notebooks dem Akku beim fallen zugucken, den M1 Macbooks ist das egal. Da kannst du aus den ausgelesenen Daten (CPU Auslastung, Taktraten, Stromverbrauch, Temperatur etc) kaum auslesen, ob nun eine Videokonferenz mit 100 Teilnehmern läuft oder nicht.
Videode- und Encoding sollte aber doch generell nicht über die CPU sondern über spezielle Hardware laufen. Apple hat hier natürlich den Vorteil Hardware und Software aus einer Hand zu liefern und kann so die optimal passenden Einheiten integrieren, während bei AMD einige Codecs fehlen. Ist natürlich ein Riesenvorteil, sehe ich aber eher unter den Kapitel Customizing als bei der Architektur.
 
  • Gefällt mir
Reaktionen: Darkseth88
Darkseth88 schrieb:
ARM ist hier besser. Bzw RISC ist hier besser als CISC. Auch AMD Prozessoren können z.B. mit dem m1 nicht mal annähernd mithalten, was Leistung pro Watt angeht

Das ist richtig, könnte aber auch daran liegen das bisher nur die Leistungsklasse der Tastaturprozessoren betrachtet werden kann.

Ob ARM wirklich nach oben skaliert ohne dass dabei die überlegene Energieeffizienz oder die Preis-/Leistungseffizienz verloren geht ist weiterhin unbewiesen. Der ausbleibende Erfolg bzw. der anhaltende Mißerfolg der ARM-basierten Server-CPUs spricht dagegen.
 
  • Gefällt mir
Reaktionen: Klever
Alexander2 schrieb:
dem kann durchaus wiedersprochen werden :-) mit alleine schon einem Beispiel.
https://blog.de.fujitsu.com/produkt...ll-weltweit-leistungsstaerkste-supercomputer/

Und der cpu an sich wurde auch schon genannt.

Eh... ich weiss nicht ob man dies so fokussiert ausdruecken kann. Der A64-FX ist ein sehr spezieller Prozessor der wirklich nur fuer HPC funktioniert. Vermutlich muesste man @Hayda Ministral 's Aussage praezisieren in der Fazette das der Ampere Altra auf der einen Seite bis 80 Kernen sehr vielversprechende Form fuer bestimmte Anwendungen zeigt und auf der HPC-Seite der entgegengesetzte Ansatz des A64-FX viel Versprechen zeigt, wobei dieser extrem stark ueber seine extrem breiten Vektoreinheiten kommt. Wobei man zu Fugaku sagen muss, dass dies ein extrem grosser Supercomputer ist in dem Sinne dass er ein riesiges Netzwerk nutzen muss um seine 396 Schraenke zu verbinden. Das funktioniert nur in den wenigsten Rechenzentren. Zum Vergleich, Frontier der erste Exascalerechner der Amerikaner hat ca. 100 Schraenke. Das geht nur mit einem speziellen Netzwerk, wie es auch RIKEN in Fugaku nutzt. Mit dem normalen Mellanox Infiniband wird das niemals funktionieren, weil die Topologie viel zu "breit" ist.


Um nochmal speziell auf Grace und die doch zum Teil sehr selektiven Information und leicht falsch verstehbaren Benchmarks, die in der Regel nicht mit den anderen Chips vergleichbar sind, einzuegehen gibt es mittlerweile ein Erklaervideo von Patrick Kennedy (Editor von Servethehome).
 
Alexander2 schrieb:
dem kann durchaus wiedersprochen werden :-) mit alleine schon einem Beispiel.
https://blog.de.fujitsu.com/produkt...ll-weltweit-leistungsstaerkste-supercomputer/
Ich habe bei weitem zu wenig Kenntnisse der Materie um Dir ernsthaft zu widersprechen. Daher nur zwei Dinge: 1. leider keine Angabe der Leistungsaufnahme verfügbar und 2. Mein Bauchgefühl (siehe Einleitung) sagt mir dass das ein an Vectoring-Einheiten angeflanschter ARM ist. Damit wäre die Leistung des Systems bestätigt, die Flexibilität der Architektur ebenfalls, aber eben nicht die Leistungsfähigkeit von ARM selbst. X86 hat seine Stärken ja genau da wo noch keine Spezialfunktionen unterstützen. Genau hier, jenseits der Spezialbefehle, hat ARM in der Vergangenheit (soweit ich das gelesen habe) gnadenlos versagt.
 
Darkseth88 schrieb:
ARM ist hier besser. Bzw RISC ist hier besser als CISC. Auch AMD Prozessoren können z.B. mit dem m1 nicht mal annähernd mithalten, was Leistung pro Watt angeht, und vor allem, wie konstant niedrig der Stromverbrauch überhaupt gehalten werden kann, wenn mal aktiv etwas passiert.
z.B. bei Videokonferenzen, kann man bei x86 Notebooks dem Akku beim fallen zugucken, den M1 Macbooks ist das egal. Da kannst du aus den ausgelesenen Daten (CPU Auslastung, Taktraten, Stromverbrauch, Temperatur etc) kaum auslesen, ob nun eine Videokonferenz mit 100 Teilnehmern läuft oder nicht.
Sicher? Ein 5800u ist wohl ein gutes Stück leistungsfähiger als ein m1 und ist vom Verbrauch auch kaum drüber (auch abhängig wie er belastet und wie er im BIOS limitiert ist). Diese Vergleiche werden zwar seit Monaten immer wieder blind wiederholt bzw. von Apple (bzw. Apple-Influencern) gepusht, aber abgesehen von den üblichen Augenwischereien mit Software-Transcoding vs. Hardware-Transcoding wurden da selten wirklich handfeste Zahlen geliefert.
Belastet man den M1, wird der selbstverständlich auch heiß und verbraucht ordentlich Strom (im Rahmen seiner Spezifikationen ... natürlich ist das noch immer recht niedrig, aber so ist das bei den meisten Energiespar-Prozessoren). >80° sind nicht kühl und Lüfter steil aufwärts von 2500 Umdrehungen sind auch nicht "nicht hörbar".

Ich freue mich ja generell über die Richtung, die da in Hinblick auf Leistung und Verbrauch eingeschlagen wurde bei Apple, aber dass dieses "It's magic"-Schema der bei Appleprodukten immer wieder kursiert, nervt tierisch. Genau das gleiche mit dem RAM, der "magisch" auf einmal nicht mehr an Kapazitätsgrenzen stoßen soll (was sich mit samplebasierten VSTs in 2 Minuten widerlegen lässt, so sie denn auf ARM überhaupt noch laufen) und Auslagerungsdateien nach und nach die verlötete SSD schreddern. Oder der angeblich so spektakulären Preis/Leistung, obwohl eindeutig (wie schon bei den iPhones) die Kosten einfach in den dringend empfehlenswerten Upgrades versteckt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral
Xul schrieb:
Sicher? Ein 5800u ist wohl ein gutes Stück leistungsfähiger als ein m1 und ist vom Verbrauch auch kaum drüber (auch abhängig wie er belastet und wie er im BIOS limitiert ist).
100% Sicher. Das sieht man in jedem vergleich. Ich verlinke weiter unten auch gerne was.

Du kannst mir für die Behauptung sehr gerne ein paar Tests/Belege zeigen, wenn du da was hast, was ich noch nicht gefunden habe. Und das meine ich tatsächlich ehrlich, weil ich solche Dinge äußerst gerne lese.

Kannst du mir ein Notebook mit einem Zen3 der U-Serie (und damit: halbwegs annähernd vergleichbare Leistung) zeigen, der mit ähnlicher Gerätegröße + ähnliche Akkukapazität reale 20 Stunden Akkulaufzeit hinkriegt?
Ich finde einzelne (!) Windows Notebooks, die annähernd da rankommen in bestimmten Situationen, aber dann auch mit weniger als halber Leistung (Asus Expertbook U9 z.B., mit 10th gen 14+++nm quad Core), und selbst der kommt nicht ran, trotz größerem Akku.

Was passiert mit Zoom oder anderen Videocalls? Schafft da auch nur ein Windows Notebook 15 stunden am stück mit 280~ cd/m² Helligkeit? Bzw, "nur" 1/4 Akkulaufzeit zu verlieren?
Das einzige, was mir bekannt ist, dass videokonferenzen jede x86 CPU ziemlich extrem belasten, und die mehrheit der Notebooks dabei nicht lautlos bleibt.
Mein M1 geht im Idle verne mal in richtung <40 mW runter, also 0,040 Watt.
Während Zoom inkl. Kamera sind es 1,5 Watt beim SoC.
(Ich wünschte, ich hätte ein aktuelles Ryzen Notebook zum testen hier.... Würde die Zahlen zu gerne selbst vergleichen. Habe zwar ein T480s von der Arbeit, aber das ist hier leider null vergleichbar. Zumal ich nichts installieren darf)

Aber um mal etwas konkretes zu nennen: Klick (damit die Videovorschau nicht viel platz wegnimmt hier).
Es ist hier ein Yoga Slim 7 mit Ryzen 7 4800u, 15w TDP.
14" Display mit fast der gleichen Fläche, aber nur 1080p Auflösung. Außerdem, 61 Wh gegenüber 58,2 Wh
Bei deiner Aussage müsste der Stromverbrauch vergleichbar sein, der Akku ist größer, Auflösung geringer, und maximale Displayhelligkeit ist auch deutlich geringer.
In dem Video merkt man davon aber nichts. Das M1 verliert 18% Akku, während der Lenovo mit 4800u 44% verloren hat (95% auf 51%). Das gleiche nochmal, der Lenovo mit 4800u ist leer, das MB Pro hat noch fast 2/3 an Akku übrig.
Hier war auch viel Videoplayback dabei, etwas wo x86 stabil unten bleiben kann. Aber benutze den Computer aktiv, und der prozentuale Unterschied im Stromverbrauch steigt nochmal mehr.
Und Zoom lief nicht nativ, wobei der Stromverbrauch bei mir deutlich geringer ist (10% Akku in 90 Minuten)

Notebookcheck misst hier ebenfalls nur knapp über 10h bei ihrem wlan-browsing skript, bei dem der Macbook Pro doppelt so lange durchhält.

Ich bezweifle, dass Zen3 bei Verbrauch/effizienz mehr als 10%~ gebracht hat, zumal das mit dem Boost verhalten eh verschwinden könnte. Die boosten ja gerne so weit sie können, solange Temp-Limit und Power-Limit eingehalten werden.

Du kannst mir da unmöglich ernsthaft erzählen wollen, dass ein Ryzen 7 5800u hier "kaum mehr verbraucht" - ausnahme, beide lassen stundenlang cinebench laufen.

Edit: Bonus: Klick. (Timestamp funktioniert hoffentlich, sonst: 7:08)
Auf absolut vergleichbare 15w TDP konfiguriert erreicht ein 5800u minimal weniger Punkte, aber vernachlässigen wir das mal. 8 vollwertige Kerne (statt nur 4 schnelle und 4 langsame) mit 16 Threads, gleicher maximaler Stromverbrauch, und trotzdem nicht mehr Leistung - und im Alltag deutlich ineffizienter.
Erst konfiguriert auf 25-28w TDP schafft er es, 20% schneller zu sein.

"Gutes stück schneller" kann er zwar sein, wenn er dafür aber auch ein gutes Stück mehr Strom verbraucht.
Und ob selbst der dickste mobile Zen3 chip schneller sein wird, als der M1x (oder wie auch immer das 12-Core Modell heißen wird), würde ich mal mehr als nur bezweifeln. Das wird ziemlich lustig, wenn der endlich mal released wird.

Xul schrieb:
Belastet man den M1, wird der selbstverständlich auch heiß und verbraucht ordentlich Strom (im Rahmen seiner Spezifikationen ... natürlich ist das noch immer recht niedrig, aber so ist das bei den meisten Energiespar-Prozessoren). >80° sind nicht kühl und Lüfter steil aufwärts von 2500 Umdrehungen sind auch nicht "nicht hörbar".
80°C sind zwar nicht das kühlste, aber immer noch absolut unbedenklich. Chips dürfen 100°C haben als max temperatur, drunter ist alles kein Problem. Ob der Chip nun krampfhaft bei 70°C gehalten wird indem er tot gethrottled wird, oder mit 90°C mehr Power auf die Straße bringt, ist weder besser, noch schlechter. Einfach andere Prioritäten.

Die 2700 rpm meines damaligen 2018er Macbook Air fand ich schon relativ "nicht hörbar". Ich musste mit dem Ohr nah an die öffnung, damit der hörbar war. Aber das ist ja seeeehr individuell vom Lüfter.

Wenn belastung für dich 100% Benchmark-Last ist, sicherlich. Dann verbraucht das Package seine 15w ziemlich genau, manchmal 16w~ (mehr als knapp 16w auf dem kompletten SoC (inkl. Ram) hab ich nichtmal im Burst beobachten können, während selbst U-Prozessoren gerne mal kurz 40-50 Watt verballern). Hab ich oft genug nebenher mit geloggt.
Genau so, wie ein Ryzen auf 15w beschränkt die selben 15w verbraucht, wie jeder andere Chip, der 15 watt verbraucht.

Aber bei nicht 100% Last ist der M1 wesentlich effizienter und der Energieverbrauch bleibt deutlich konstanter, deutlich niedriger.
Den Lüfter im M1 MB Pro habe ich bisher auch nur in Cinebench zu hören bekommen, und selbst da hat es ewig gedauert, bis mal eine gewisse Temperatur erreicht wurde und der Lüfter überhaupt mal angefangen hat. Solch eine Last haben aber nur die wenigsten (die, die den halben Tag nur am Rendern sind, DAS kann man aber nicht als Referenz hernehmen).

Xul schrieb:
aber dass dieses "It's magic"-Schema der bei Appleprodukten immer wieder kursiert, nervt tierisch. Genau das gleiche mit dem RAM, der "magisch" auf einmal nicht mehr an Kapazitätsgrenzen stoßen soll
Also, keine Ahnung wovon du sprichst, niemand redet von Magie und Zauberei.
Apple hat nicht gezeigt, dass sie plötzlich zaubern, es wurde nur deutlich, wie weit Intel (oder auch generell x86) technisch hinterher hinkt in bestimmten Aspekten.


Xul schrieb:
aber abgesehen von den üblichen Augenwischereien mit Software-Transcoding vs. Hardware-Transcoding wurden da selten wirklich handfeste Zahlen geliefert.
Welche handfesten Zahlen willst du denn genau? also beispielsweise.
An sich sind die Punkte doch auch egal, genau so wie RISC vs. CISC, oder x86 vs. ARM.
Man hat eine Task, und der Computer soll diese erledigen. Und da zählt: Wo geht es schneller, effizienter, leiser, kühler etc. (Natürlich im Hinterkopf, welche Software läuft etc etc. Chromebooks sind bei solchen Punkten auch super, aber die sind zu limitierend in der Software).



Aber trotzdem, völlig egal wie viel besser der m1 in sachen "Leistung pro Watt" oder "Effizienz" oder auch nur Stromverbrauch selbst ist, verglichen zu egal welchem Intel oder AMD. Das bleibt trotzdem nicht so einfach ersetzbar.
Den Ryzen bekomme ich in Verbindung mit x86 Windows oder Linux, und hab mehr Software zur auswahl, vor allem älteres zeug.
Oder in sachen "Absolute Leistung" sind die x86 besser. Auch wenn sie "nur" 60% mehr Leistung bei 400% mehr Stromverbrauch hinkriegen, mehr Leistung ist mehr Leistung.
Spätestens mit dem M1x wird aber auch der Punkt vorbei sehen.

Am Ende vom Tag aber bringt das alles nichts, denn: Wer kein Apple Produkt will, bzw kein MacOS nutzen will/kann, da ist das ganze Thema relativ irrelevant.
Mir kann es z.B. auch egal sein, dass ein Moped weniger Sprit schluckt, wenn ich ein Auto für die Familie brauche.
Und DAS wird die nächsten Jahre der Hauptgrund bleiben, warum x86 nicht so schnell irrelevant wird.
So revolutionär der M1 im Computerbereich aktuell auch ist, ich würde nur ZU gerne von meinem Skylake auf einen Zen3 upgraden. Aber ich versuche noch bis zu einer DDR5 Plattform auszuhalten.. Sprich: Ich könnte mir noch nicht vorstellen, meinen Desktop mit einem iMac zu ersetzen. Vor allem nicht, solange Gaming ein Thema bleibt...


Xul schrieb:
Oder der angeblich so spektakulären Preis/Leistung, obwohl eindeutig (wie schon bei den iPhones) die Kosten einfach in den dringend empfehlenswerten Upgrades versteckt werden.
Nicht angeblich, tatsächlich.
Natürlich sinkt P/L, bei solch perversen Upgrade-Preisen.. Aber die sind trotzdem optional.
Zu wenig speicher lässt sich hier einfach mit einem höheren Preis ausgleichen. Ja, ich zahle mehr, aber der Nachteil ist dann weg.
Bei jeder anderen Konkurenz hab ich dafür andere nachteile. z.B. nerviger Lüfter, deutlich weniger Akkulaufzeit etc.
Muss man halt abwägen. Aber selbst mit den saftigen Upgrades ist halbwegs vergleichbare Konkurrenz nicht günstiger (Dell XPS 13, Thinkpad X1 Nano z.B).
 
  • Gefällt mir
Reaktionen: Xul und M@tze
Zurück
Oben