News Radeon Pro W6000X: Der Mac Pro erhält AMD RDNA 2 mit bis zu vier GPUs

@iGameKudan für eine HPC Karte ist das trotzdem toter Platz. Deshalb wurde es garnicht erst integriert.
RDNA ist dafür auch nicht verkehrt, klar lag dort nicht der Fokus drauf aber die Zahlen beim Mac Pro insgesamt sollten sich sehr in Grenzen halten aus verschiedenen Gründen.

Das ist im Apple Kosmos komplette niesche, diem haben ihren Fokus ganz wo anders. Und abgesehen davon ist die Leistung der Duo schon brachial, das nimmt man gerne mit.

CDNA ist ausschließlich in den Instinct Karten verfügbar. Dafür lassen sich diese über IF bis zu 8 Stück gleichzeitig verbinden und den VRAM gleichmäßig verteilen. Bei RDNA können die Radeon Pros das ganze zumindest über 2 Karten mit Optionen für Display Arrays (geht hier zu weit, ist aber recht spannend)
 
Rage schrieb:
@tomgit Alles klar, danke für die Aufklärung. Vielleicht wäre mir das gleiche passiert, wenn ich auf Github und nicht im offiziellen AMD-Forum gefragt hätte. Irgendwie ziemlich schwache Sauce.
Kein Problem =)
Es ist auch eine relativ große Diskussion, wenn es um gerade den Einstieg in Machine Learning oder dem Prototypen von Anwendungen geht, gerade weil durch den mangelhaften Support im Einstieg niemand AMD empfehlen kann - außer, und irgendwie auch ironischerweise, man benutzt einen Mac oder Hackintosh dafür.

Entsprechend sehe ich das Versäumnis auch weniger auf Seiten Apples und deren Streit mit Nvidia, sondern eher auf Seiten AMDs und deren Unwillen, die aktuellen Consumer-Karten zu unterstützen. Unter'm Strich hat beides ein Gschmäckle.

iGameKudan schrieb:
Eigentlich wollte ich ja fragen wieso Apple nicht auf die CDNA-Architektur setzt, schließlich dürfte das Anwendungsgebiet von GPU-Power im Mac Pro hauptsächlich bei Compute-Ausgaben liegen.
CDNA wird auch keinen offiziellen Support unter macOS erhalten, auch die MI100 hat meines Wissens nach noch keinen Eintrag im Kernel erhalten. Dass die RDNA-2-Chips unterstützt werden ist vermutlich auch eher ein Notnagel seitens Apple, da eben viele Aufgaben noch nicht von ARM unterstützt werden und vermutlich die eigenen Chips nicht so schnell anliefen, wie man letztes Jahr noch gehofft hatte. Immerhin dauerte es bis 11.5, bis die RX6800, RX6800XT und RX6900XT unterstützt wurden, obschon die ersten Einträge in der Beta von 11.0 vorhanden waren - die Unterstützung der kleinen RDNA-Karten fehlt noch vollständig.
Wird auch der Hauptgrund dahinter gewesen sein, dass man Live Text doch noch für Intel-Systeme freigab; der große iMac wird dieses Jahr auch nicht mit ARM erscheinen, mich würde da auch ein Refresh mit Intel nicht mehr wundern (zumal Rocketlake auf dem selben BGA funktionieren sollte).
iGameKudan schrieb:
Aber die Bildausgabe entkernen/weglassen ist schon reichlich blöd. :lol: So viel Platz kann die doch nich kosten...
Es geht weniger um Platz, als um Arbeit im Treiber.


@Topic: Ich frage mich nur, ob sich Apple wirklich einen Gefallen damit tut, die Grafikkarten jetzt offiziellen anzubieten, immerhin erhöht das indirekt auch die Erwartungen an die eigenen Grafiklösungen, welche im ARM-Mac Pro anzutreffen sein wird. Keiner wird sich da mit weniger Leistung als beim Vorgänger zufrieden geben, außer Apple senkt den Einstiegspreis enorm.
Die Alternative wäre natürlich, dass zumindest RDNA 2 als Option zur Verfügung steht und hier vielleicht die Kooperation mit AMD weiterläuft. Würde auch erklären, warum ML-Aufgaben von den M1-iGPUs und den AMD-GPUs unterstützt werden, Intel iGPUs noch auf der Strecke bleiben.

...außerdem wäre der MPX-Standard dann nicht gleich wieder obsolet.
 
  • Gefällt mir
Reaktionen: Rage
@tomgit Du scheinst da ja einen gewissen Einblick zu haben. Wie soll sich das mit ROCm und dem OpenCL-Support für alle, was neuer als Vega 10 ist, entwickeln?
 
Rage schrieb:
@tomgit Du scheinst da ja einen gewissen Einblick zu haben.
Ich hab mich (un)freiwillig mit der Frage befassen müssen, da ich für Arbeit und potenziell Masterthesis OpenCV benutzen musste/werde und mich da mit der Implementierung in verschiedenen OS befasst habe. TL;DR: GPU-Support gibt es unter macOS etwa gar nicht, da geht das Ganze über die CPU, OpenCL wird bei OpenCV nur von Intel unterstützt und der Rest heißt CUDA. Es gibt noch die Implementierung von MI Open, bzw. MI Vision, aber dazu hatte ich weder die Zeit, noch den Nerv - nur mit einer Vega 64 die passende Grafikkarte als Reserve, wenn meine RTX 2070 unbrauchbar gewesen wäre :D
Rage schrieb:
Wie soll sich das mit ROCm und dem OpenCL-Support für alle, was neuer als Vega 10 ist, entwickeln?
... Vega 20? :D
Wenn man den Issues (und Reddit) Glauben schenken mag, soll zumindest für RDNA 2 der Support bei ROCm implementiert werden. Dass RDNA 1 in die Röhre schauen wird, dürfte eigentlich keinen verwundern, immerhin werden die GPUs ja nicht mehr produziert und CDNA ist ja auch nur eine Weiterentwicklung von GCN.
Ob aber etwa RDNA 3 noch großartig berücksichtigt werden wird, steht glaub noch in den Sternen. Das hängt vermutlich auch damit zusammen, ob ein Displayoutput in CDNA 2 vorgesehen sein wird und entsprechend die Desktop-Karten darauf basieren und nicht mehr auf dem Consumer-Chip. Was eigentlich schade wäre, weil dann müsste von AMD mehr Arbeit in ein CUDA-Layer investiert werden, weil das Prototyping wird ja dann weiterhin über Nvidia-Karten laufen und der Teufelskreis würde AMD in diesem Bereich weiter ins Aus buchsieren, da kein Studi, Startup oder Institut das Geld für eine Workstation-GPU ausgibt.

Was ich mir höchstens noch vorstellen könnte, wäre eine Hybrid-Grafikkarte, da RDNA 3 und CDNA jeweils auf ein Chiplet-Design setzen sollen. Somit hätte man einen Consumer-Part für die Bildausgabe (und vielleicht ein paar Computer-Tasks, worin RDNA effektiver wäre), und den Workstation-Part für den Rest. Man müsste dann "nur" den Treiber anpassen, dass alles korrekt angesteuert wird, müsste aber keine dritte Architektur unterstützen.
 
  • Gefällt mir
Reaktionen: Rage
hui die preise :/ ... nichts mehr für privat!
 
@tomgit Vielleicht führt der jüngste Geldregen aber auch dazu, dass sie endlich mal den Arsch hochkriegen und auf der Softwareebene nachbessern. Kann ja nicht sein. Aber so wie ich das sehe, wird dann wohl die Lösung für mich, ans M2-Macbook ne eGPU mit RDNA2 dranzuhängen :D
 
@Rage Das Problem ist halt, dass das aktuell noch nicht funktioniert, zumindest bei den M1 Modellen; scheinbar wird da die eGPU tendenziell erkannt, aber der Kernel hat (noch) keine Unterstützung für etwaige Grafikkarten.

Was auch per se ein Problem in der Apple/AMD-Welt ist: AMD bekommt es irgendwie nicht ganz auf die Reihe, einen breiteren Support für GPGPU-Aufgaben in ihren Consumer-Geräten anzubieten; zeitgleich bekommt Apple es auch noch nicht so recht hin, zumindest für Data Scientists die notwendigen Packages auf ARM übersetzt zu bekommen. R hat zwar inzwischen einen ARM-Port, aber die Packages sind halt in vielen Fällen noch immer x86-compiled. Auf Seiten Pythons hingegen sieht es auch nicht viel besser aus, Anaconda hat noch keinen wirklich gut funktionierenden ARM-Port und die Suche nach ARM-compiled Packages gestaltet sich auch schwierig, zumal essenzielle Packages, wie etwa scipy, in den geläufigsten Repositories auch noch in x86 kompiliert sind. Zwar geht die Installation per brew wohl relativ komfortabel - weil hier die Pakete jeweils kompiliert werden - aber ist auch nicht immer die beste Lösung.

Ich bin selbst in der dämlichen Situation, wo ich am liebsten auf ein MacBook Air M1 umsteigen würde, weil mir mein Desktop-PC und auch mein Pro 16 manchmal einfach zu laut wird, aber die Begrenzungen von Seiten der Programme und maximal 16gb RAM (was auch die blödeste Entscheidung bei meinem MacBook war :freak:) sind halt noch zu limitierend.

Und um da selbst aktiv bei der Portierung mitzuarbeiten, dafür bin ich ehrlich gesagt zu doof :stock:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ghecko
@TeeKay spricht eher für exklusive Bezahlung als große Stückzahlen. Ist ein netter Nebenverdienst für AMD.
 
  • Gefällt mir
Reaktionen: tomgit
Also entweder ist es ein für Apple unwichtiges Nischenprodukt oder sie sind bereit, einen so ordentlichen Aufpreis für Exklusivität zu zahlen, dass AMD allen anderen Kunden das Topprodukt vorenthält und es sich für sie trotzdem noch lohnt. Was dann aber wiederum hieße, dass der Mac Pro doch einen ordentlichen Teil des Workstation Marktes okkupieren würde. Denn wenn ich an 5% des Marktes zum doppelten Preis, dafür an 95% gar nicht verkaufen kann, lohnt es sich nicht.
 
TeeKay schrieb:
Was dann aber wiederum hieße, dass der Mac Pro doch einen ordentlichen Teil des Workstation Marktes okkupieren würde.
Tut er auch, vielleicht auch nicht unbedingt in den Regionen, die man gerade erwarten würde.
Abgesehen davon, dass etwa viele Musik-Produktionen und Filmstudios primär auf Apple-Systeme setzen, nicht zuletzt wegen der guten Hardwareintegration von Final Cut Pro oder Logic Pro, nutzen auch einige Museen und Archive Macs.

Und bei OpenCL Workloads sind die Mac Pros mitunter die besten Systeme, welche man auf dem Markt kaufen kann (und sogar bekommt!), sofern eben entweder das Programm es richtig unterstützt oder man zumindest WIndows/Linux zum Laufen bekommt
 
Nen iMac Pro mit aktueller Intel CPU und einer 6900XT vielleicht als Sonderedition mit 32GB RAM wäre mir lieber gewesen, schließlich ist der MacPro dann wirklich nur für eine sehr geringe Käuferschicht wirklich interessant, ehrlicherweise habe ich von dieser Version noch kein in Real-Life gesehen, selbst bei Cutter und Grader nicht.
Die Preise sind also für eine Zielgruppe, denen man häufig begegnet sondern eher im Hintergrund viel Leistung brauchen.
Und das 3D Programme nicht der Schwerpunkt sind, das liegt ehrlicherweise auch an AMD, klar könnte Apple auch nVidia verbauen aber warum kann AMD sich nicht genau so in die gängigen 3D Programme wie nVidia rein kaufen, mit Support auf allen Ebenen und so offene Standards aber eben auch Optimierungen im Detail unterstützen.
AMD hat wieder sehr tolle Produkte seit einigen Jahren aber es ist auch ihre Verantwortung Sachen wie Ray-Tracing und Rendering aufs selbige Niveau oder drüber zu bringen, mit allen Mitteln.
Ich habe immer dass Gefühl AMD versucht Sonderlösungen oder immer auf offene Standards zu setzen, die dann aber weder an die Qualität heran reichen noch an die Performance.
Zumindest ist das mein subjektives Gefühl.

Aber, es wird ja auch spannend was Apples eigene Antwort mit ihrem SOC sein wird, selbst wenn ARM sich so toll skalieren lässt und ihre GPUs konkurrenzfähig auf dem Papier werden, wenn Blender, Maya, Octane und C4D nicht auf Augenhöhe oder besser laufen, dann wird der Kreis der Nutzung eher kleiner als größer.

Das sie aber auch noch auf den alten Mac Pro setzen müssen zeigt eben auch, zaubern geht nicht und Antworten auf alle Fragen hat man mit ARM-M-Soc hat man auch noch nicht.
Gefühlt verabschiedet sich Apple aber eh immer mehr aus den Prosumer Bereich, es werden sicher neue iMac Pros oder Mac Pros kommen aber diese werden wohl eher verbesserte Standardmodelle sein, die ja ausreichend Leistung für Final Cut, Creative Cloud, Logic und Co. haben aber eben wenig, womit man Heavy Compute Power oder 3D Leistung bekommt.
 
@HanneloreHorst Das Problem ist ja selbst bei den offenen Standards eigentlich nie die Hardware, sondern die Software. AMDs OpenCL-Treiber sind legendär. Leider nicht positiv. Und leider fällt auch Nvidia nicht damit auf die Spec sehr ernst zu nehmen. An sich ist OpenCL ne tolle Idee, aber es fehlen die Player außer Apple, die es wirklich wollen bzw. können. Deshalb macht Apple ja auch Metal.
 
Zurück
Oben