Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD ROCm 7.0: Instinct-MI350-Support und mehr Leistung im AI-Wettstreit
AMD hat mit ROCm 7.0 die neueste Softwaresuite veröffentlicht, die AI auf AMD-GPUs noch schneller machen soll. Auch neue Instinct-Chips unterstützt sie. AMD folgt damit dem zuletzt eingeschlagenen Weg, schneller auf Neuheiten im Markt zu reagieren und so die eigenen Produkte konkurrenzfähiger zu machen.
Jetzt muss nur noch der Support für die Consumer-GPUs besser werden
Wobei das ja bei RDNA4 nun schon gegeben ist, hoffentlich bleibt das so und auch Strix Halo wird in Bälde offiziell unterstützt. 👍
Die CUDA-Dominanz einzuschränken kann nur gut für jeden Einzelnen sein (abgesehen von NVidia natürlich).
Bei der Software Unterstützung kann sich AMD von NV ne Scheibe abschneiden !
Ja, sie haben viel weniger Manpower und sind mittlerweile auf einem guten Weg ...
Pytorch ROCm 7.0 RC1 experimentiell für ComfyUI (kein Zluda!) auf Windows habe ich zirka 82% Mehrleistung gegenüber Pytorch ROCm 6.4 Nightly für ComfyUI auf Fedora WS 42 + Update. Ging von 1.44 it/s auf 2.56 it/s* hoch. Mit Radeon RX 9070 16GB. Kein WSL!
*) Illustrious, 1024x1024, 25 steps, Euler / Normal. Aktuellste stable Version von ComfyUI und Stability Matrix.
Unter Windows benötigte ich für ein 1024x1024 Bild 12-13 Sekunden. Ein Bild mit 960x1600 habe ich zirka 21-22 Sekunden gebraucht. Ich musste mit Workarounds auskommen, so dass VAE Decode und weiteren sehr gut lief. Kein OOM!
Ich warte auf Pytorch ROCm 7.0 für Linux um es weiter testen zu können.
Ich bin gespannt auf die weiteren Updates. Die haben sicherlich viel zu tun.
Dass die Strix APUs weiterhin nicht offiziell als supportet gelistet sind - obwohl ROCm 7 diese ja explizit auch ansteuern sollen - finde ich dann doch traurig und ernüchternd. Ich bin mit dem Zbook Ultra weitestgehend zufrieden, aber ein paar Geschmäckle hinterlässt es dann doch.
Effektiv werden KI-Workstations verkauft, welche kein eigenes KI-Framework unterstützen.
Mal schauen, ob es einfach nur ein Fehler in der Dokumentation ist - ein entsprechendes Issue wurde ja bei GitHub eröffnet.
Ich kann mir das auch nur mit einem Fehler in der Dokumentation erklären. Ich kann sonst nicht nachvollziehen, weshalb AMD solche Bilder auf der offiziellen Website von ROCm 7 veröffentlicht.
Ich frage als Laie, der gern mit Blender rendert und darum immer den Kauf einer AMD-Karte ausgeschlossen hat - bin aber etwas aus dem Thema rausgewachsen. Ist ROCm jetzt eine Technik, die es Entwicklern einfach macht, ihre Renderpipelines wie die von Blender fit für AMD-Karten zu machen? Ist es realistisch, dass AMD-support dann bald Einzug hält oder sogar schon automatisch gegeben ist , weil ROCm ein Analogon zu CUDA ist? Ich sehe nicht durch und würde mich freuen, wenn ich zum Rendern bald mal ne AMD-Karte nutzen (und daher auch kaufen) könnte. Danke für euer Wissen!
Es ist ja auch mit der alten Version getestet worden
So from the same system while running Ubuntu 24.04.3 LTS + Linux 6.17, I ran some Vulkan vs. ROCm 6.4.3 benchmarks with Llama.cpp on the Radeon RX 9070 XT. (NOTE: This testing wrapped up last week, prior to yesterday's ROCm 7.0 release. ROCm 7.0 benchmarks will come later.)
@0x8100hier siehst du das mit einer 9700 es etwa 80% schneller läuft.
Wahrscheinlich wird die aktuelle Generation deutlich mehr von profitieren als die ältere Generation.
das könnte immer noch bedeuten, dass stable diffusion statt "richtig langsam" jetzt nur noch "langsam" ist. müsste man mal einen vergleich mit allen backends machen. ich gebe aber zu, dass ich darauf keine lust habe
Pytorch ROCm 7.0 RC1 experimentiell für ComfyUI (kein Zluda!) auf Windows habe ich zirka 82% Mehrleistung gegenüber Pytorch ROCm 6.4 Nightly für ComfyUI auf Fedora WS 42 + Update. Ging von 1.44 it/s auf 2.56 it/s* hoch. Mit Radeon RX 9070 16GB. Kein WSL!
*) Illustrious, 1024x1024, 25 steps, Euler / Normal. Aktuellste stable Version von ComfyUI und Stability Matrix.
Unter Windows benötigte ich für ein 1024x1024 Bild 12-13 Sekunden. Ein Bild mit 960x1600 habe ich zirka 21-22 Sekunden gebraucht. Ich musste mit Workarounds auskommen, so dass VAE Decode und weiteren sehr gut lief. Kein OOM!
Ich warte auf Pytorch ROCm 7.0 für Linux um es weiter testen zu können.
Ich bin gespannt auf die weiteren Updates. Die haben sicherlich viel zu tun.
Musst du bei ComfyUI mit deiner Radeon dann darauf achten, dass die verwendeten Modelle ROCm unterstützen oder wie konfigurierst du deine Workflows dort?
Kannst du da mal näher drauf eingehen?, bitte?