News Apple Silicon: Neuer Mac Pro kommt mit M2 Ultra und sieben PCIe-Slots

Terabyte100 schrieb:
Welchen benchmark hast du dir da zu rate gezogen ?
Cinebench R23. MMn ein guter Bench für Rohleistung in einer Workstation.

Schau dir die Werte von einem M1 Max zu M2 Max an, skalier das x2, gib noch ein bisschen on Top und du kommst auf ca. 28-29000 Punkte. Ein 7950er liegt zwischen 38 und 40000 Punkten, ein 13900K(S) zwischen 39 und 41000.

40k zu 29k sind knapp 40% Mehrleistung, klar bei mehr Verbrauch, aber den Apple Score würde ich auch mit 90W TDP schlagen - selbst getestet.

Wie gesagt, spielt keine Rolle wenn du die Media Engine verwenden kannst, aber in Sachen Rohleistung, Rendering, CAD, Datenbanken etc. pp wird das Teil einfach abstinken. Muss man halt wissen wofür man es einsetzt.
 
  • Gefällt mir
Reaktionen: PS828 und Calid
ThirdLife schrieb:
Wieso ? Wird doch jetzt schon bei gleicher Leistungsaufnahme von einem 7950X geschlagen. 🤷‍♂️ :D
sorry, ich meinte "noch lustiger" :)
Ergänzung ()

Terabyte100 schrieb:
Wobei das mitt der Gpu da drin nicht ganz fair ist. Ne Grafikkarte müsste man ja noch dazu rechnen. Der alte mac pro war der jetzt aber nicht soooo viel besser der wird von nem 5950 geschlagen. Zumindet in cb r 15.

Ähm... entschuldigung, aber alleine um den AUFPREIS für 60 auf 76 CPU-Cores bekommst du fast schon eine 4090er

1686467445755.png

1686468472418.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Calid schrieb:
Ähm... entschuldigung, aber alleine um den AUFPREIS für 60 auf 76 CPU-Cores bekommst du fast schon eine 4090er
Die alleine schon 3-4 mal so viel Strom verbraucht, wie ein kompletter M2 Ultra.
Zumal man dafür fast eine 4080er bekommt, eine 4090er ist noch etwas weiter weg. Vor allem, wenn man nicht das räudigste Billig-modell nimmt, sondern eines welches halbwegs leise zu bekommen ist.

Eine 4090 hat außerdem auch nur 24gb Speicher, ein M2 Ultra kann bis zu 192gb Grafikspeicher haben.
ThirdLife schrieb:
40k zu 29k sind knapp 40% Mehrleistung, klar bei mehr Verbrauch, aber den Apple Score würde ich auch mit 90W TDP schlagen - selbst getestet.
Und wie vergleicht sich der Verbrauch bei der deutlich wichtigeren Idle und Teillast?
Kommt deine CPU bei 90w TDP im Idle auf einen vergleichbaren Watt verbrauch wie der Apple Chip?

100% Benchmark Last liegen selbst bei Profis nur selten an, es wird aber dennoch nur Benchmark-Last für Effizienzvergleiche hergenommen.
Im Idle / Teillast wird jeder AMD/Intel Prozessor deutlich mehr Verbrauch haben.


Dass in Mitte 2023 immer noch Leute rumlaufen die nicht checken WOLLEN, dass Apple mit seinen Chips von Anfang an niemals die benchmark-Penis-Krone mit brechstange wollte, sondern den Fokus auf effizienz setzt...
Da muss man doch mittlerweile drauf kommen, dass man nicht blind Leistung miteinander vergleicht, ohne den Stromverbrauch mit zu erwähnen. Und das nicht nur bei Apple, auch bei banalen vergleichen wie RTX 3060 ti vs. 4060 ti.
Leistungsvergleiche ohne Verbrauch dazu sind wie Nudeln ohne soße. Man kann auch satt werden, aber es fehlt etwas fürs Gesamtbild.


Das ist nicht anders, als wenn ich einfach nur sage:
M2 Ultra GPU verbraucht <100w, eine 4090 verbraucht 450w, also ist die M2 Ultra GPU doch klar besser", während ich die Leistung dabei völlig ignoriere. Da dürfte wohl jeder zustimmen, dass es so nicht geht.

Völlig unabhängig davon, wie unsinnig ich persönlich den Mac Pro finde verglichen zum Studio, wenn man so ziemlich nur 3000€+ für PCIe slots zahlt.
 
  • Gefällt mir
Reaktionen: tidus1979
Ich finde beide geràte unsinnig der ùber den mac pro habe ich mich schon ausgelassen. Der studio ist fùr nen mini pc mitt der gpu power eine larmen 4060ti einfach zu teuer selbst in DE kostet strom nicht so viel dass man das mitt dem geringen strom verbrauch jemals reinbekommt.
 
Wird es den M2 / M3 jemals als Extreme Version geben für den Mac Pro ? Bzw. gibt es dahingend irgendwelche Andeutungen ?
Das MacStudio ist ja von der Leistung usw. dann ja genau so gut bisher, wie ein Mac Pro, oder bin ich da ganz falsch ? Der einzige Vorteil des Mac Pros wäre aktuell, dass es PCI Slots hat.
 
Der mac pro hatt Pcie selots weis nur noch keiner was man damit machen kann. Evnetuell ist er auch kùhler/leiser, als der studio.
 
Mac-4-Life schrieb:
Auh hier wieder ein konkurrenloses Produkt. Alternativen gibt es einfach keine.

Tellerrand? Der Name ist Programm bei Dir?

Was kann das Spielzeug außer Videos schneiden?
Um das Geld kann ich auch Epyc kaufen oder auf die neuen Threadripper warten.
 
  • Gefällt mir
Reaktionen: DrSeltsam95
Darkseth88 schrieb:
Die alleine schon 3-4 mal so viel Strom verbraucht, wie ein kompletter M2 Ultra.
1. wissen wir denn, was so ein M2 Ultra unter 100% GPU last an Leistung zieht? Außerdem Firmen schauen da soweiso nicht drauf. Was zählt ist die Zeitersparnis. Relativ wurscht ob da mehr Strom verbraucht wird. Time is Money.
2. RAM: ja herzlichen Glückwunsch, wenn du dafür nochmal 1840 Euro daruf liegst (weil RAM ja auch sooooo teuer ist im Moment - NICHT!) . Dafür bekommst du dann nochmal eine 4090er dazu

1686551555135.png


Komplett GA-GA wie man bei Apple abgezockt wird. Das immer schlimmer.
 

Anhänge

  • 1686551503232.png
    1686551503232.png
    25,8 KB · Aufrufe: 72
ThirdLife schrieb:
spielt keine Rolle wenn du die Media Engine verwenden kannst, aber in Sachen Rohleistung, Rendering, CAD, Datenbanken etc. pp wird das Teil einfach abstinken. Muss man halt wissen wofür man es einsetzt.
Darkseth88 schrieb:
Dass in Mitte 2023 immer noch Leute rumlaufen die nicht checken WOLLEN, dass Apple mit seinen Chips von Anfang an niemals die benchmark-Penis-Krone mit brechstange wollte, sondern den Fokus auf effizienz setzt...
Die hohe Effizienz kommt bei den Apple M Chips vorrangig durch die ganzen Co-Prozessoren die Apple da reingesteckt hat. NPU, ISP, HDR Video Prozessor, NVMe SSD-, PCIe-Contoller und das alles auf dem Interposer.

Das fehlt den Intel pedantes halt bzw. ist durch externe Buse angebunden was auch auf Effizienz geht.

Aber das ARMs generell als Effizient gelten ist ja kein Geheimnis, das ihnen bei Dauerlast die Puste ausgeht und auch die Effizienz flöten geht auch nicht.
 
Calid schrieb:
1. wissen wir denn, was so ein M2 Ultra unter 100% GPU last an Leistung zieht? Außerdem Firmen schauen da soweiso nicht drauf. Was zählt ist die Zeitersparnis. Relativ wurscht ob da mehr Strom verbraucht wird. Time is Money.
2. RAM: ja herzlichen Glückwunsch, wenn du dafür nochmal 1840 Euro daruf liegst (weil RAM ja auch sooooo teuer ist im Moment - NICHT!) . Dafür bekommst du dann nochmal eine 4090er dazu
Herzlichen Glückwunsch auch an dich, Du hast meinen Post entweder nicht gelesen, oder nicht verstanden. Oder beides. Wenn du mir die Stelle zitierst, die du nicht verstanden hast, würde ich es dir gern noch mal ausführlicher erklären.
Auch wenn ich nicht verstehe, was daran so schwer zu verstehen ist, dass zu einer Leistung X immer ein Stromverbrauch Y dazu gehört. Der Sachverhalt ist doch wirklich nicht schwer, oder?

Auch mit einer zweiten 4090 hast du "nur" 48gb Grafikspeicher, wenn die Anwendung mehrere GPUs parallel nutzen kann, und der Stromverbrauch unter Last geht auf 900w + den Rest vom System.
Ein M2 Ultra zieht unter voller Last auf CPU + GPU keine 200w.
Und zeige mir bitte ein Gehäuse, wo 2 4090 reinpassen, und dabei ähnlich klein ist wie ein Mac studio?
Selbst mit dem Basis-RAM von 64gb hat man schon mehr nutzbaren Grafikspeicher als mit 2x RTX 4090 :freak:


Solange du den Stromverbrauch weiterhin ignorierst, gibt's hier keine Diskussionsgrundlage für die Technik an sich. Dummes, verblendetes Apple-gehate indem man sich alles so zurecht dreht, ist ebenfalls keine Diskussionsgrundlage, genau so wenig wie dummes verblendetes Fanboygelaber. Das andere Extrem ist hier NICHT besser als Fanboyism.

Und ich erwähne hier nicht mal den Hitzeausstoß oder die Lautstärke.

Btw: Stromrechnung ist auch Geld.
Und es gibt nicht nur große Unternehmen, sondern auch Selbstständige die damit ihr Geld verdienen.

Eine objektive Diskussionsgrundlage haben wir, sobald du alle Aspekte eines Produkts in deine Beurteilung mit einfließen lässt, nicht nur eine einzige Benchmark-Zahl + Preis.
sikarr schrieb:
Die hohe Effizienz kommt bei den Apple M Chips vorrangig durch die ganzen Co-Prozessoren die Apple da reingesteckt hat. NPU, ISP, HDR Video Prozessor, NVMe SSD-, PCIe-Contoller und das alles auf dem Interposer.
Nö, sondern wie Tasks auf die Kerne verteilt werden, wie die Kerne Takten, Boostverhalten etc.
Nicht nur beim nichts tun, sondern auch wenn Aufgabe X erledigt werden soll, hält sich der Energieverbrauch in grenzen.

Schau dir nur den Verbrauch an von beiden Packages an, wenn du auf dem Desktop im Idle bist. Welcher Co-Prozessor soll dafür zuständig sein, wenn nicht die E-Cores?
Oder lass ein Youtube Video laufen und schau wie viel Watt durchschnittlich das Package dabei zieht. Auch Intel hat Hardwareencoding
Lass ein Youtube Video laufen, nebenher schreibst du über Whatsapp/Discord und liest auf Computerbase. Bei all dem haben die Co-Prozessoren nichts mit am hut.

Das Package kommt beim nichts tun deutlich weiter runter. Ein M1 z.B. auf <40 mW, bzw 0,04 Watt.
Bei x86 geht es in besseren Fällen eher in richtung 0,5 bis 1 Watt beim nichts tun.

Apple lässt die Dinger nicht auf 5 Ghz boosten, nur weil man die Maus von A nach B bewegt.

Ich denke aber, dass sowohl Intel als auch AMD hier deutlich nachlegen könnten, indem das Boost-verhalten im Idle/Teillast entsprechend optimiert wird.
 
Ich hab deinen Post schon verstanden, keine Sorge. Und deine Cherry-Picking (Watt-Erbsenzählerei, Ram) sind vlt im absoluten Spezialfall interessant, OK, aber für den Haupteinsatzzweck (Grafik, Videoschnitt, Rendern, etc.) völlig nebensächlich. Du glaubst doch wohl nicht ernsthaft, dass sich das jemand anschaut? Wenn du das glaubst, kann ich dich von deiner Illusion befreien: da schaut kein Schw*** drauf (OK, in DE vlt der eine oder andere, mit eurer tollen Energiepolitik).

Fakt ist, mit einem Highend PC System bist du bei gleicher Investitionssumme besser bedient. Bei Apple zahlst du die Apple-Tax. Ist einfach nur teuer das Trum, sonst keinerlei wirkliche Vorteile. Das Argument mit dem großen Speicher: Zeig mir mal bitte den Usecase, der von den 192GB unified Speicher gebrauch macht (der für 0,001% der User interessant ist LOL)

Ich finde es ja auch lustig, das Apple der reinen RAM Kapazität diesen gewaltigen Rückschritt gemacht hat - vorher waren immerhin 1,5TB möglich, jetzt ist bei 0,19TB Schluss. Jede Wette, dass 1,5TB RAM damals als die ganz große und tollste Sacher der Welt beworben wurde :daumen: - Apple hald. Lügen wie gedruckt bei den Keynotes (machen andere Firmen auch, aber Apple ist schon ziemlich dreist). Diese ganzen Performence Metrics von kann man getrost vergessen.

Mit dem Thema Aufrüsten fange ich gar nicht erst an. Ach ja: PCIE4.0 ist auch ein Scherz. Gibts ja nicht erst seit 4(!!) Jahren. Typisch Apple. Zu geizig für PCIE5 (oder technisch nicht möglich > huch wie fortschrittlich LOL)

Nachsazt: Ich arbeite seit 10 Jahren in meiner Firma auf meinem Mac Pro. Der hat damals 4500 euro gekostet. Vorteil vom Mistkübel: den konnte man zumindest noch aufrüsten - RAM, CPU, Grafik, SSD. Leistet mir immer noch gute Dienste. Aber diese neuen Dinger - ne, danke. Kann sich Apple an den Hut stecken. Völlig verrückt was die Dinger kosten.
 
Zuletzt bearbeitet:
Calid schrieb:
Ich hab deinen Post schon verstanden, keine Sorge. Und deine Cherry-Picking (Watt-Erbsenzählerei, Ram) sind vlt im absoluten Spezialfall interessant, OK, aber für den Haupteinsatzzweck (Grafik, Videoschnitt, Rendern, etc.) völlig nebensächlich. Du glaubst doch wohl nicht ernsthaft, dass sich das jemand anschaut? Wenn du das glaubst, kann ich dich von deiner Illusion befreien: da schaut kein Schw*** drauf (OK, in DE vlt der eine oder andere, mit eurer tollen Energiepolitik).
Du glaubst doch nicht ernsthaft, dass niemand sich für stromverbrauch interessiert, nur weil DU es nicht tust.
Wenn du das glaubst, kann ich dich von deiner Illusion befreien: Viele schauen drauf.
Und auch auf den damit verbundenen Hitzeausstoß und Lautstärke.


Zumal es völlig irrelevant ist, wen es interessiert. Der Unterschied ist technisch da, und MUSS mit einbezogen werden, wenn man Leistung vergleicht.

Wenn eine RTX 4090 3 mal so schnell ist, aber 6 mal so viel Strom verbraucht, gehört das hier eben dazu.
Was meinst du, warum Computerbase bei jedem GPU Test auch den Stromverbrauch misst? Weil kein Schw*** drauf schaut?
Calid schrieb:
Fakt ist, mit einem Highend PC System bist du bei gleicher Investitionssumme besser bedient. Bei Apple zahlst du die Apple-Tax. Ist einfach nur teuer das Trum, sonst keinerlei wirkliche Vorteile. Das Argument mit dem großen Speicher:
Das ist kein Fakt, sondern subjektive Präferenz.
Aber wenn du jemand bist, den nichts interessiert außer Benchmark-Balken, dann magst du das sicher anders sehen.

Es gibt mehr als genug, bei denen jedes PC System wegfällt, weil das falsche OS drauf läuft.
Es gibt viele Aspekte bei der Wahl eines Computers.

Der Tellerrand ist für manche wohl doch ein wenig höher. Das ist Schade.
Calid schrieb:
Zeig mir mal bitte den Usecase, der von den 192GB unified Speicher gebrauch macht (der für 0,001% der User interessant ist LOL)
Zeig mir mal bitte die Studie, dass "kein Schw***" sich für Stromverbrauch interessiert.
Calid schrieb:
Ich finde es ja auch lustig, das Apple der reinen RAM Kapazität diesen gewaltigen Rückschritt gemacht hat - vorher waren immerhin 1,5TB möglich, jetzt ist bei 0,19TB Schluss. Jede Wette, dass 1,5TB RAM damals als die ganz große und tollste Sacher der Welt beworben wurde :daumen: - Apple hald.
Das findet jeder lustig, und schade.
Aber du kommst hier nicht seriöser rüber, wenn du deinem verblendeten Apple-Hass hier raus lässt.

Ist es so schwer, sachlich zum Thema zu bleiben?
Calid schrieb:
Lügen wie gedruckt bei den Keynotes (machen andere Firmen auch, aber Apple ist schon ziemlich dreist). Diese ganzen Performence Metrics von kann man getrost vergessen.
Zeig mir eine Lüge.
Cherrypicking ist keine Lüge, man stellt sich selbst nur positiver da, als es durchschnittlich der Fall ist.
Das macht AMD, Intel und Nvidia ebenfalls.
Nicht schön, aber alle tun das. Auch bei Smartphones die ganzen hersteller, oder sonst wo.
Calid schrieb:
Mit dem Thema Aufrüsten fange ich gar nicht erst an. Ach ja: PCIE4.0 ist auch ein Scherz. Gibts ja nicht erst seit 4(!!) Jahren. Typisch Apple. Zu geizig für PCIE5 (oder technisch nicht möglich > huch wie fortschrittlich LOL)
Mit so einwürfen wie LOL ROFL und Co machst du deinen Standpunkt weder deutlicher, noch bringt es der Argumentation irgendwas.
Zumindest nichts, was über sinnfreies gehate hinaus geht.
Also genau das gegenteil von einem verblendeten Fanboy. Muss das sein?

Unabhängig davon, ob PCIe 4.0 heute Unsinn ist, wenn es 5.0 gibt, kannst mir eine Einschränkung erläutern?
Außer, wenn jemand PCIe 5.0 SSDs einbauen will, wobei auch da fraglich ist, wie sehr man effektiv davon profitiert.
Calid schrieb:
Völlig verrückt was die Dinger kosten.
Absolut. Ich finde die Aufpreise ja noch VIEL verrückter. Die Basispreise sind "ok", außer die 3000€ Aufpreis für die PCIe Slots. Alles andere ist halbwegs okay.

Wenn du in der Windows Welt etwas möglichst vergleichbares zu einem Macbook Air willst, zahlst du auch Macbook Air Preise. Teilweise sogar mehr.


late Edit:
Das eigentlich "lustige" hier ist ja, dass ich an sich auch denke, dass für die überwiegende Mehrheit, ein PC-basiertes Setup bei 6000-12000€~ sinnvoller bzw. besser geeignet wäre.
Aber es ist Quatsch die positiven Aspekte unter den Teppich zu kehren. Die sind da, und es ist 100% valid, wenn sie jemandem wichtig sind. Und wenn es am Ende nur das OS ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf
Piktogramm schrieb:
Wo kommen die ganzen PCIe/Thunderbolts Phys her? Die bekannten Die Shots der M2 Chips zeigen nicht ansatzweise ausreichend PCIe artiges Phy für so viele Slots. Selbst wenn die Sockel alle nur 4 Lanes haben.
Einfach warten, bis Marcan vom Asahi Linux Projekt sich einarbeitet :)
https://social.treehouse.systems/@marcan/110493886026958843

Yeah okay so they are totally cheating.

They have two big PCIe switches and are hanging everything off of them.

From the device tree:

8x Gen4 lanes on die 0, switched:​

  • x1 to USB internal
  • x2 to SATA internal
  • x4 to I/O card (USB, probably single lane connected)
  • x8 to slot6
  • x1 to LAN1
  • x1 to LAN2
  • x1 to WiFi/BT

16x Gen4 lanes on die 1, switched:​

  • x16 to slot1
  • x16 to slot2
  • x8 to slot3
  • x8 to slot4
  • x8 to slot5
Assuming storage is 8 lanes on die0 (can't see the storage config in the device tree, but given the downstream port counts I hope the config is 8x/8x split on die0 and 16x for general purpose PCIe on die1).

So basically 5 of the slots including both x16 ones are bottlenecked into a single x16 gen4 channel. Boo.

Well, I take it back. I said the Mac Pro was going to use a new chip with a lot more PCIe. Guess they just decided to throw switches at the problem instead and call it a day.
 
Darkseth88 schrieb:
Und wie vergleicht sich der Verbrauch bei der deutlich wichtigeren Idle und Teillast?
Kommt deine CPU bei 90w TDP im Idle auf einen vergleichbaren Watt verbrauch wie der Apple Chip?
Klar. Das ist natürlich auch der Anwendungszweck einer 14000€ Workstation. Idlen lassen und sich dran aufgeilen. Wer will denn schon dass das Teil abliefert ? Das soll gefälligst Idle sein !

Auf gute Idle Werte lege ich Wert im MBP, aber sicher nicht in einer fucking Workstation.

In Teillast ist auch ein aktueller Zen 4 überlegen. Idle ist das einzige was die "WORK" Station dann abliefern kann. Super.

Darkseth88 schrieb:
Dass in Mitte 2023 immer noch Leute rumlaufen die nicht checken WOLLEN, dass Apple mit seinen Chips von Anfang an niemals die benchmark-Penis-Krone mit brechstange wollte, sondern den Fokus auf effizienz setzt...
Jo. Im mobilen Bereich macht das auch Sinn. Wenn man damit tatsächlich arbeiten will und sich an "PRO" User richtet - dann halt so gar nicht. Zeit ist Geld. Rumidlen bringt dir kein Geld und ob die CPU nun 90 oder 150 oder 200W frisst ist völlig belanglos wenn ich mein Projekt mit einem x-beliebigen AMD oder Intel Chip 40% schneller rendern kann.

Und da reden wir noch gar nicht von Dingen wie OptiX Rendering und RT und Co.

Mit Pro hat das Ding so wie es aktuell dasteht einfach gar nix am Hut.
 
Darkseth88 schrieb:
Nö, sondern wie Tasks auf die Kerne verteilt werden, wie die Kerne Takten, Boostverhalten etc.
Das ist einer der Gründe.
Darkseth88 schrieb:
Nicht nur beim nichts tun, sondern auch wenn Aufgabe X erledigt werden soll, hält sich der Energieverbrauch in grenzen.
Kommt auf die Anwendung drauf an, gibt viele Faktoren die das beeinflussen.
Darkseth88 schrieb:
Schau dir nur den Verbrauch an von beiden Packages an, wenn du auf dem Desktop im Idle bist. Welcher Co-Prozessor soll dafür zuständig sein, wenn nicht die E-Cores?
Hab ich doch nie abgestritten, es ging aber um die Effizienz also wie aufgaben erledigt werden. Apple verfolgt den big.LITTLE Ansatz und hat es im OS auch richtig implementiert. Intel ist gerade erst dabei und dann braucht es noch die Unterstützung von M$. Aber auch deren E-Cores sind sehr effizient, die Software muss sie nur im richtigen Moment zu nutzen wissen.
Darkseth88 schrieb:
Oder lass ein Youtube Video laufen und schau wie viel Watt durchschnittlich das Package dabei zieht. Auch Intel hat Hardwareencoding
Lass ein Youtube Video laufen, nebenher schreibst du über Whatsapp/Discord und liest auf Computerbase. Bei all dem haben die Co-Prozessoren nichts mit am hut.
Youtube wird wieder über die GPU beschleunigt, auch bei Apple. Nur das die halt mit auf dem Die sitzt und bei einem PC für gewöhnlich als PCIe Karte verbaut ist. Mit eigener Spannungsversorgung, Kühlung etc. das drückt die Effizienz gewaltig.
Darkseth88 schrieb:
Das Package kommt beim nichts tun deutlich weiter runter. Ein M1 z.B. auf <40 mW, bzw 0,04 Watt.
Bei x86 geht es in besseren Fällen eher in richtung 0,5 bis 1 Watt beim nichts tun.
Und was hat das mit Co-Pozessoren zu tun?
Darkseth88 schrieb:
Apple lässt die Dinger nicht auf 5 Ghz boosten, nur weil man die Maus von A nach B bewegt.
Macht meine CPU auch nicht, da wird wohl bei dir was falsch eingestellt sein.
Darkseth88 schrieb:
Ich denke aber, dass sowohl Intel als auch AMD hier deutlich nachlegen könnten, indem das Boost-verhalten im Idle/Teillast entsprechend optimiert wird.
Bin ich bei dir wird aber auch nicht alle Probleme lösen. x86 ist gegenüber ARM wie ein Musclecar gegen einen Sportwagen.

Windows muss das big.LITTLE Konzept besser auf die Reihe kriegen. AMD verfolgt einen solchen Ansatz aber aktuell nicht.
 
Zurück
Oben