Upgrade nur für GFX Radeon RX 5600 XT auf einem MB MSI B550-A Pro mit AMD Ryzen 5 3600 überhaupt sinnvoll?

UralterMann

Cadet 1st Year
Registriert
Okt. 2021
Beiträge
15
1. Wie viel Geld bist du bereit auszugeben?
ca 600 EUR

2. Möchtest du mit der Grafikkarte spielen?
  • Welche Spiele genau?
    • Wenn (selten), dann Cyperpunk2077, HotS, FoundyVTT ;)
  • Welche Auflösung?
    • 2560x1440 bzw. 3440x1440 d.h. entspricht der Auflösung des Monitors, der direkt vor mir steht (siehe auch Frage Nr. 4)
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
Reihenfolge der Priorität: 1. HomeOffice, 2. KI, 3. Spiele

4. Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)

Geplant drei Monitore, zurzeit die zwei 32" Monitore, aber der Plan ist einen weiteren größeren Monitor hinzuzunehmen. Damit - Status quo der Planung - und Antwort auf die Frage:

5. Nenne uns bitte deine aktuelle/bisherige Hardware:

1763328738293.png


6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
Status quo kann ich mit meiner gfx keine KI mehr machen. Die Untersützung per Treiber (mROC-Support für die RX 5600 XT ist ausgelaufen und ich bekomme das nach ein paar Wochen rumprobieren nicht (mehr) zum laufen) ist "ausgelaufen". Und KI per CPU ist eine Qual (u.a. wg. DDR4 Speicher), d.h. ein Bild 512x512 mit CPU auch mal 280 Sec, vorher mit der RX 5600 XT 45 Sec. DDR6 Speicher über MB ist nicht zeitnah zu erwarten bzw. - für mich aktuell - unklar, ob und wann DDR6-Speicher verfügbar bzw. bezahlbar sein wird.

Meine Prioritäten:
  1. drei Monitor betreiben können für HomeOffice (1x Doku, 1x Hauptschirm, 1x E-Mail, Kommunikationsplattform, Logfiles etc)
  2. KI - d.h. aktuelle ComfyUI (Bildgenerierung für pan&paper rollenspiel illustrationen: NSC und Szenen) und gemini-Client und opencode mit lokaler llm einsetzen
  3. (ältere) Spiele
  4. Finanzbudget
  5. AMD vor nVidia, falls kein KO-Kriterium

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
Zeitnah, Status quo der Planung ist bis/ab Ende November...aber auch "heute" machbar.




Hallo zusammen,

trotz intensiver Lektüre verschiedener Threads habe ich noch immer kein wirklich klares Bild davon, ob ein reines GPU-Upgrade für mich sinnvoll ist.

Aktuell tendiere ich zur RX 9060 XT (16 GB) oder RX 9070 XT (16 GB) als Upgrade – bin mir aber weiterhin unsicher, ob das für mich überhaupt sinnvoll wäre.

Hinweis: Ich arbeite ausschließlich unter Linux (derzeit Linux Mint). Windows nutze ich seit Jahren nicht mehr. Das spielt auch beim Thema KI eine Rolle. Ich bin aber vorsichtig optimistisch, dass sich die Einschränkungen (AMD Treiber-Support für KI und unter Linux) in den nächsten fünf Jahren deutlich reduzieren werden.

Daher meine Fragen:
  • Ergibt es für meinen Anwendungsfall überhaupt Sinn, „nur“ die Grafikkarte zu ersetzen?
  • Falls ja: Welches Netzteil wäre dafür empfehlenswert?
  • Oder ist ein reines GPU-Upgrade letztlich wirkungslos, weil danach andere Komponenten im System zum Flaschenhals werden?
  • Welche grundsätzliche Empfehlung/Hinweise (basierend auf meiner aktuellen HW und Anforderung) könnt ihr mir geben?

Vielen Dank für euer Feedback!

UralterMann aka Christian
 
Zuletzt bearbeitet:
Bei deiner Anforderungen wäre eine Intel Arc Pro B50 oder die B60 vielleicht die bessere Wahl. P/L ist bei der B50, auch wenn sie aktuell über dem UVP verkauft wird, absolut top. Auch wenn du es wahrscheinlich jetzt nicht brauchst, die kommen sogar mit SR-IOV. Du könntest damit z.B. 2 VMs mit je 8 GB VRAM parallel laufen lassen.
 
UralterMann schrieb:
Das spielt auch beim Thema KI eine Rolle. Ich bin aber vorsichtig optimistisch, dass sich die Einschränkungen in den nächsten fünf Jahren deutlich reduzieren werden.
Von welchen Einschränkungen sprichst Du? Ohne massives GPU VRAM bzw. unified RAM wird das nichts.
 
@nutrix KI-Treibersupport für AMD Karten unter Linux. Ist - Status quo - bei AMD noch nicht so optimiert wie bei nVidia. Sorry. Hatte ich unklar formuliert.
 
  • Gefällt mir
Reaktionen: nutrix
Warum greifst Du dann nicht gleich zu Nvidia? Sobald das mit AMD besser wird, kannst Du immer noch gegen eine 9060/70 tauschen. Ansonsten würde ich nicht weiter darauf hoffen, sondern nach dem aktuellen Status Quo kaufen.
 
UralterMann schrieb:
Geplant drei Monitore
Bist du dir sicher, dass du 2x 32" + 1x 34" willst?
Hatte selbst mal ein ähnliches Setup und habe das sehr schnell wieder abgeschafft, weil es mir viel zu viel Platz gebraucht hat und ich es extrem unergonomisch fand, weil ich den Kopf immer so weit drehen musste, um auf die äußeren Monitore schauen zu können.
Ganz davon abgesehen würde es mich persönlich total stören, dass die äußeren Monitore höher sind als der mittlere (34" 21:9 ist genau so hoch wie 27").
Ich bin mittlerweile eher ein Fan davon, einen großen Monitor zu nutzen, als mehrere "kleine".

UralterMann schrieb:
Status quo kann ich mit meiner gfx keine KI mehr machen.
Was heißt denn "KI machen" in deinem Fall konkret?

UralterMann schrieb:
Die Untersützung per Treiber ist "ausgelaufen".
Hängt jetzt vermutlich mit der oberen Frage zusammen, aber was heißt "ausgelaufen"?
Also, dass RDNA1 mittlerweile im legacy-modus ist, ist mir bewusst, aber warum sollte die Karte deswegen nicht mehr für KI-Anwendungen genutzt werden können?
 
wrglsgrft schrieb:
Bist du dir sicher, dass du 2x 32" + 1x 34" willst?
Hatte selbst mal ein ähnliches Setup und habe das sehr schnell wieder abgeschafft, weil es mir viel zu viel Platz gebraucht hat und ich es extrem unergonomisch fand, weil ich den Kopf immer so weit drehen musste, um auf die äußeren Monitore schauen zu können.
Ganz davon abgesehen würde es mich persönlich total stören, dass die äußeren Monitore höher sind als der mittlere (34" 21:9 ist genau so hoch wie 27").
Ich bin mittlerweile eher ein Fan davon, einen großen Monitor zu nutzen, als mehrere "kleine".
Danke für den Hinweis zum 34". Habe ich übersehe, der ist ja 7cm "niedriger"....


wrglsgrft schrieb:
Was heißt denn "KI machen" in deinem Fall konkret?

Hängt jetzt vermutlich mit der oberen Frage zusammen, aber was heißt "ausgelaufen"?
Also, dass RDNA1 mittlerweile im legacy-modus ist, ist mir bewusst, aber warum sollte die Karte deswegen nicht mehr für KI-Anwendungen genutzt werden können?
Ja, ich habe aufgegeben mit der "tausensten" ROCm-Versions-Kombo die RX 5600 XT wieder für KI wiederzubeleben. Daher auch die Überlegungen mit neuer HW mein Versagen zu kompensieren. :(
 
Zuletzt bearbeitet:
UralterMann schrieb:
Wichtig ist, dass die drei die gleiche Höhe haben.
Dann wird es schwierig. Für 32" 16:9 gibt es kein exakt passendes 21:9-Pendant. 40" 21:9 ist etwa 10 mm niedriger, 45" 21:9 ist etwa 30 mm höher.

Und was heißt "KI machen" jetzt konkret?
 
wrglsgrft schrieb:
Dann wird es schwierig. Für 32" 16:9 gibt es kein exakt passendes 21:9-Pendant. 40" 21:9 ist etwa 10 mm niedriger, 45" 21:9 ist etwa 30 mm höher.
mmh....dann muss ich mich von der Idee den Zentralen auf 34" zu erhöhen aufgeben. Da ich schon 2 32" habe, ist mir der finanzielle Sprung auf einen ganz Großen und gleichzeitig 2 Monitor zur Seite stellen dann zu viel. Wird dann ein dritter 32"er werden.
Auf alle Fälle vielen Dank für den Höhen-Hinweis, denn den habe ich überhaupt nicht bedacht. Wäre ein Zurückschickfall geworden. Nochmals Danke.

wrglsgrft schrieb:
Und was heißt "KI machen" jetzt konkret?
Aktuelle ComfyUI (Bildgenerierung für pan&paper rollenspiel illustrationen: NSC und Szenen) und gemini-Client und opencode mit lokaler llm.
 
  • Gefällt mir
Reaktionen: wrglsgrft
UralterMann schrieb:
Ist eine Weile her, dass ich mich damit befasst hatte, aber seinerzeit war NVidia da ganz stark im Vorteil. Zumindest unter Windows. Wie sich das bei Linux verhält weiß ich nicht.
 
imRa schrieb:
Bei deiner Anforderungen wäre eine Intel Arc Pro B50 oder die B60 vielleicht die bessere Wahl. P/L ist bei der B50, auch wenn sie aktuell über dem UVP verkauft wird, absolut top. Auch wenn du es wahrscheinlich jetzt nicht brauchst, die kommen sogar mit SR-IOV. Du könntest damit z.B. 2 VMs mit je 8 GB VRAM parallel laufen lassen.
Vielen Dank für diese Hinweis. Intel hatte ich garnicht in Betracht gezogen, aber mit meinem Fokus auf KI ist das zu Bedenken.

Meinst du als Ersatz für die alte gfx oder zusätzlich einbauen?

Wie ich deinen Hinweis gelesen habe, hatte ich den Gedanken eines parallelen Einbaus der Arc ... Wäre das überhaupt sinnvoll?
 
@wrglsgrft Vielen Dank für den Tipp ...
... den "aktuelleren Teil/Seiten" (der ist laaaaang) werde ich mir jetzt mal "reinziehen" :)
 
Zuletzt bearbeitet:
Nach Abverkauf von RX 5600 XT und dem Ryzen 3600 reicht dein Budget in etwa für folgendes, was nach BIOS-Update auf deinem Mainboard läuft, sowie an deinem Netzteil funktioniert:

https://geizhals.de/asus-prime-geforce-rtx-5070-oc-a3382474.html?hloc=de
https://geizhals.de/amd-ryzen-7-5700x-100-000000926-a2697378.html

Nun gibt es darunter noch die RTX 5060 Ti 16GB mit mehr Speicher. Ob du von der CPU viel hast, kann ich nicht beantworten. Aber da du auch spielst, tut die nicht weh.

Bitte beachte, wieviel Platz für eine Grafikkarte im Chieftec ist ...
 
Zuletzt bearbeitet:
@Zwirbelkatz Vielen Dank für die Beschreibung dieser Option und auch dem Heraussuchen der Links.
Ergänzung ()

Mir ist aktuell noch unklar ist, in wie weit meine "alte" CPU zum Flaschenhals bei einer neuen GFX-Karte, z.B. einer RX 9060 XT 16 GByte, für KI wird. Status quo würde ich vermuten, dass dies nicht der Fall ist, da die "Berechnungen" nur bzw. überwiegend in der GFX stattfindet.

Hat da jemand weiterführende Hinweise für mich?
 
Dazu solltest Du mal erst genauer benennen, was Du genau mit KI wie machen willst. Generell kannst Du davon ausgehen, je älter die CPU, desto größer die Bremse für aktuelle GPUs. Ansonsten brauchst Du Dich doch nur an aktuellen CPU Tests orientieren:
 
Zuletzt bearbeitet:
nutrix schrieb:
Dazu solltest Du mal erst genauer benennen, was Du genau mit KI wie machen willst.
Mir ist aktuelle unklar, was du mit "genauer" hinsichtlich meiner Beschreibung von " ... aktuelle ComfyUI (Bildgenerierung für pan&paper rollenspiel illustrationen: NSC und Szenen) und gemini-Client und opencode mit lokaler llm ... " meints?

nutrix schrieb:
Generell kannst Du davon ausgehen, je älter die CPU, desto größer die Bremse für aktuelle GPUs.
Tut mir leid, ich habe da meine Fragestellung hier unklar formuliert bzw. im impliziten Kontext meiner
Fragestellungen von Anfang des Thread gesehen (und vergessen wieder darauf zu verweisen):
...Daher meine Fragen:
  • Ergibt es für meinen Anwendungsfall überhaupt Sinn, „nur“ die Grafikkarte zu ersetzen?
  • Falls ja: Welches Netzteil wäre dafür empfehlenswert?
  • Oder ist ein reines GPU-Upgrade letztlich wirkungslos, weil danach andere Komponenten im System zum Flaschenhals werden?
...
 
Ok, das mit ComfyUI und lokaler LLM war nicht oben im ersten Eintrag. Das sollte eigentlich immer da oben hin, weil man sich das intuitiv immer als erstes anschaut und nicht die ganzen einzelnen Beiträge durchforstet.

Ansonsten ist es wieder viel zu wage forumliert. Du kannst davon ausgehen, daß Deine alte 3600 natürlich ein Flaschenhals ist und sich die GPU bei entsprechenden Anwendungen langweilt.
Für aktuelle GPUs empfiehlt sich ein ATX 3.1 Netzteil mit entsprechenden Anschlüssen. Ansonsten bau doch bei Deiner aktuellen Konstellation einfach eine 9060/9070 mal ein, und dann siehst Du ja, wie es bei Dir performt.

Wirkungslos wird eine Umstellung nicht sein, Du wirst klar einen Effekt sehen. Aber Du wirst definitiv Leistung verschwenden.
 
Zuletzt bearbeitet:
nutrix schrieb:
Ok, das mit ComfyUI und lokaler LLM war nicht oben im ersten Eintrag. Das sollte eigentlich immer da oben hin, weil man sich das intuitiv immer als erstes anschaut und nicht die ganzen einzelnen Beiträge durchforstet.
Oh ja, habe ich nun ergänzt.


nutrix schrieb:
Ansonsten bau doch bei Deiner aktuellen Konstellation einfach eine 9060/9070 mal ein, und dann siehst Du ja, wie es bei Dir performt.
Das ist tatsächlich meine aktuellen Überlegung das so zu machen. Denn die GFX werde ich auch dann nehmen, wenn ich den Rest auch tauschen muss...


nutrix schrieb:
Wirkungslos wird eine Umstellung nicht sein, Du wirst klar einen Effekt sehen. Aber Du wirst definitiv Leistung verschwenden.
Ich hoffe, dass die "Verschwendung" bzw. der Verlust bei meinem KI-Szenario im einstelligen Prozentbereich beleibt und nicht in Richtung 50% geht ... und die Hoffnung stirbt bekanntlicherweise zuletzt ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
UralterMann schrieb:
Ich hoffe, dass die "Verschwendung" bzw. der Verlust bei meinem KI-Szenario im einstelligen Prozentbereich beleibt und nicht in Richtung 50% geht ... und die Hoffnung stirbt bekanntlicherweise zuletzt ...
Ich nutze LM Studio mit einem Ryzen 3600 und einer RX7700XT, und bei Modellen mit hohem GPU Offload ist die CPU vermutlich fast egal, denn ich habe meist 10-20 Prozent, auch gleichmäßig über alle Kerne verteilt. Eigentlich ist bei allem was mit lokalen, großen AI Modellen zu tun hat, der VRAM der Spiele GPUs das limit.

Es gibt Modelle, die laufen teilweise auf der CPU (z.B. GPT OSS), da mag es anders aussehen. Aber auch dort bekomme ich bei richtigen Einstellungen die RX7700 XT ausgelastet.

Zu ComfyUI kann ich leider nichts sagen, ich habe stundenlang versucht es mit der RDNA3 Karte zum Laufen zu bekommen, ohne Erfolg - gibt vielleicht einen Weg, aber habe ihn nicht gefunden. Ich nutze aber auch Windows, und zur Zeit möchte ich den Rechner nicht umrüsten.
Die neuen AMD Preview Treiber zusammen mit dem angepassten pyTorch unterstützen nur RDNA4 und diverse Ryzen AI SoC.

Aber ich glaube für lokale KI bekommt man das beste P/L mit den dicken Stryx Point APUs und viel RAM (der leider gerade teuer wird)
 
Zurück
Oben