News AMD Adrenalin: Nächste Woche kommt das AI Bundle ins Treiberpaket

Praktisch. Wollte mich eh die nächsten Tage mit KI-Bilderstellung lokal auf dem PC beschäftigen, nachdem mich Chatgpt 2 Tage in die Irre geführt hat.

Wollte eigentlich für mein Triplemonitorsetup nur ein Hintergrundbild was in 4K vorliegt auf alle Monitore erweitern. Die Bilderstellung in Chatgpt+ hat aber nur eine niedrige Maximalauflösung, was Chatgpt aber ignoriert hat und ständig der Meinung war, das wir nur die Prompts sauber anpassen müssen... bis ich ihn explizit gefragt habe und er dann zugab, das es doch nicht geht, weil technisch limitiert.

Soviel zur Arbeitserleichterung 🤣

Bastel ich mich halt lokal rein...aber das war schon ernüchternd.
 
Haldi schrieb:
Anhang anzeigen 1697464

Wenn nicht mal die 400B Modelle die auf mehreren nvidia H100 laufen anständige Resultate produzieren, möchtest du den Code wirklich in 70% schlechter haben?
Zum Coden?!
Hm shit. Dann muss sich aber noch viel tun für lokale Modelle!

@Return2Burn : mit Photoshop sollte das gehen! Generatives füllen
 
Beckenbauer würde sagen:
ja ist denn heut scho Ostern?
haha ;-)
Ergänzung ()

paganini schrieb:
Schön das sich AMD auf die wichtigen Sachen konzentriert 😂
Du wirst verstehen müssen, dass AI und die Industrie mit ihren Unternehmen Vorrang haben müssen, Big Buisness bringt Milliarden Einnahmen, deine Popelgroschen sind in der Unternehmensstatistik völlig egal.
Wenn AMD nicht NVidia bei allem hinterher läuft udn die gleichen DInge bringt, dann kann man den Laden abschließen udn den Schlüssel wegwerfen. So hart ist das Geschäft.
Einmal etwas verschlafen und man ist vielleicht die nächsten 10 Jahre davon gezeichnet, wenn man diese Zeit übersteht.
Das mussten vor allem die Tech Firmen schon mehr oder minder jeder mal oder mehrmals durchmachen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
brooklands schrieb:
irgendwas sinnvolles
Definiere "sinnvoll"?

Haldi schrieb:
Wenn nicht mal die 400B Modelle die auf mehreren nvidia H100 laufen anständige Resultate produzieren, möchtest du den Code wirklich in 70% schlechter haben?
fox40phil schrieb:
Zum Coden?!
Hm shit. Dann muss sich aber noch viel tun für lokale Modelle!
Äpfel und Birnen. Cloudmodelle sind General Purpose Modelle, die vieles können sollen. Es gibt aber auch einige lokale, explizit aufs Coding ausgelegte Modelle, die oftmals bessere Coding-Ergebnisse liefern als die großen Cloudmodelle, dafür in anderen Aufgaben scheitern.
Trotzdem sollte man verstehen, was das Sprachmodell produziert, da es auch gerne Backdoors einfügt.

Return2Burn schrieb:
Wollte eigentlich für mein Triplemonitorsetup nur ein Hintergrundbild was in 4K vorliegt auf alle Monitore erweitern. Die Bilderstellung in Chatgpt+ hat aber nur eine niedrige Maximalauflösung, was Chatgpt aber ignoriert hat und ständig der Meinung war, das wir nur die Prompts sauber anpassen müssen... bis ich ihn explizit gefragt habe und er dann zugab, das es doch nicht geht, weil technisch limitiert.

Soviel zur Arbeitserleichterung 🤣
Das werden dir aber die lokalen Modelle auch nicht in zufriedenstellender Qualität liefern, außer du machst es sehr sukzessive und in vielen Schritten mit anschließendem/zwischengeschaltetem Upscaler.
 
  • Gefällt mir
Reaktionen: fox40phil
MaverickM schrieb:
Gibt auch reichlich Probleme selbiger/ähnlicher Art zu nVidia Karten. Heißt nicht, dass es ein generelles Problem ist. Mach eine saubere Installation.
Weist du wie oft ich das schon gemacht habe?

Mit jedem Release mit DDU usw.
Selbst das verwenden eines frischen OS löst das Problem nicht.
Das liegt einfach an AMD.
Mit meinem getesteten RTX3060, 4070s, 4080s und RTX5060ti hatte ich keinerlei Probleme
 
  • Gefällt mir
Reaktionen: fox40phil
tomgit schrieb:
Das werden dir aber die lokalen Modelle auch nicht in zufriedenstellender Qualität liefern, außer du machst es sehr sukzessive und in vielen Schritten mit anschließendem/zwischengeschaltetem Upscaler.
Das ist okay, da ich damit eh nur etwas rumspielen will um Erfahrungen zu sammeln. Wenn ich tatsächlich zu dem komme, was ich gern hätte, dann ist das schön...wenn ich dabei lerne, was wie möglich ist, umso besser.
 
tomgit schrieb:
Definiere "sinnvoll"?
Tu doch nicht so, als würde mein Kommentar nur aus einem Wort bestehen. :rolleyes:

Mir geht's nicht um eine Grundsatzdiskussion ob und wie sinvoll KI ist, sondern um die Tatsache, dass die sog. "KI"-Prozessoren genauso gut für machine-learning zu gebrauchen sind wie die normalen.
 
AMD und Treiber, das ging noch nie gut, aber dafür bezahlt man dann vermutlich auch weniger als beim Konkurrenten, leider...

Sie sollten lieber mal Adrenalin stabiler machen als jetzt noch für weiteren Slop zu sorgen und Core Features wie das Handling von Auflösungen, etc. beheben. Es ist ein Wahnsinn wie schlecht Dinge teilweise gelöst sind oder einfach nicht funktionieren wollen.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Simanova, fox40phil und eine weitere Person
X.Perry_Mental schrieb:
Ich habe immer noch keine Ahnung, wofür ich AI sinnvoll gebrauchen könnte. Daher an dieser Stelle ein großer Dank an AMD, dass das optional ist (& hoffentlich auch bleibt).
Naja du kannst ein LLM lokal auf dem Gerät laufen lassen, ohne groß Kentnisse über LLMs haben zu müssen. Aber im Zeitalter von Grok und Chatgpt ist das ziemlich unnötig für Privatpersonen.
 
Monarch2 schrieb:
ComfyUI ging unter Windows auch bisher schon ohne WSL, aber wirklich mit viel Gefrickel. Die neue Version mit direktem Support muss ich dann direkt mal testen.
Also die neue AMD-native Version von ComfyUI funktioniert zumindest bei mir nicht mit dem normalen AMD-Treiber. Es startet zwar, aber beim Ausführen eines Jobs führt das auf meinem System zum Crash.

Ich habe keine Lust, ständig den Treiber zu wechseln, daher bin ich jetzt mal gespannt, ob das mit dem nun angekündigten Treiber wirklich funktionieren wird.

ComfyUI über ZLUDA macht in der Zwischenzeit weiter was es soll, auch wenn es nicht die volle Performance liefert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rock Lee
tomgit schrieb:
Äpfel und Birnen. Cloudmodelle sind General Purpose Modelle, die vieles können sollen. Es gibt aber auch einige lokale, explizit aufs Coding ausgelegte Modelle, die oftmals bessere Coding-Ergebnisse liefern als die großen Cloudmodelle, dafür in anderen Aufgaben scheitern.
Jaja...

Qwen-Code zbsp... gibts in 32B beinahe noch Lokal Ausführbar.
https://artificialanalysis.ai/?endpoints=hyperbolic_qwen2-5-coder-32b-instruct
1768593044960.png

Meilenweit hinter ALLEM!

Ohwait 2.5 ist alt, es gibt bereits das 3.0 Reasoning Modell mit Thinking capability...
Auch als 30B modell...
1768593126564.png

https://artificialanalysis.ai/models/qwen3-coder-30b-a3b-instruct



oder was ist denn deiner Meinung nach momentan das beste LOKAL ausführbare Ki Modell zum Coden?
 
  • Gefällt mir
Reaktionen: brooklands
Azdak schrieb:
Nein! Lokale Inferenz wird wichtiger und ganz langsam kommen lokale Modelle mit minimalem Nutzen. Man kann sich ja z.B. mal angucken, wie sich Paint auf Copilot+ PCs aktuell aussieht. Dort hat z.B. die Objekterkennung von Meta Eingang gefunden. Klar, keiner, der professionell mit Grafik arbeitet, nutzt Paint. Aber 1990 hat auch kein einziger Grafiker überhaupt mit Computern gearbeitet, weil das nur Spielzeuge und bessere Schreibmaschinen waren.

Jetzt werden die Grundlagen gelegt, ob die Hardware, die man verkaufen will, fähig ist diese Workloads auszuführen. Tut man das nicht wird man in 2-4 Jahren im Prinzip gar keine Hardware mehr verkaufen, weil sie einfach die Basics nicht kann. Und ich glaube, wir sind uns einig, AMD will auch in Zukunft Hardware verkaufen.

Es spielt keine Rolle, wie toll oder schlecht man AI findet (was aktuell echt nervig ist....). Der Vergleich zur Dot-Com-Blase wird immer besser. Damals gab es auch einen Riesen Hype und dann den Absturz und 5 Jahre später war alles das da, was versprochen worden war. OpenAI und Antrophic sind halt die Vobis und Escom von damals.
Ich rede vom Alltag der Normalnutzer. Da eird nur wenig KI Leistung gebraucht, auch längerfristig. Mitbden Spezualanwendung ist es was anderes, das ist aber nicht für 95% und mehr und wird es auch nicht. Für die allermeisten wird es eine bessere Suchmaschine sein.
Meine Meinung als jemand, der KI nutzt für die Arbeit (da reicht aber auch ein Tablet von der Leistung her).
 
Kiy schrieb:
Das liegt einfach an AMD.

Bezweifle ich stark. Ich glaube es ist aber besser, Du kaufst dir eine nVidia Karte. Für alle beteiligten die bessere Lösung.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und Rock Lee
@MaverickM Was stimmt mit dir nicht 🤣
Ich habe ganz sachlich geschrieben...

Naja, bei dir war es von anfang nur dummes gequatsche.
 
im Klartext:
bei der Treiberinstallation einfach auf ERWEITERT und ABWAEHLEN, gut is
 
Kiy schrieb:
Ich habe ganz sachlich geschrieben...

Ja, das bezweifelt auch keiner. Diese Fehler sind schlichtweg im Allgemeinen nicht nachvollziehbar. Es scheint ein Problem mit deinem Setup zu sein. Und ja, du wirst ähnliche Meldungen immer im Netz finden... Weil das absolut allgemeine Fehler sind, die die verschiedensten Ursachen haben können. Und Du wirst das auch zu nVidia Karten finden. Womöglich Software-Inkompatibilität, eine bestimmte problematische Hardware-Konstellation, defekte Hardware (Grafikkarte selbst, RAM, Netzteil...) etc.

Daher rate ich bei solchen Fehlern immer dazu einfach eine nVidia Karte zu kaufen. Solche Berichte, die halt Einzelfälle darstellen (Ja, das sind Einzelfälle, auch wenn das Fehlerbild häufig auftritt... Weil wie gesagt die Ursachen mannigfaltig sein können) vergiften den Ruf von AMD (Oder ersetze hier: Hersteller X mit Hardware Y, spielt keine Rolle) unnötig. Wenn dann das Problem weg ist, haben alle gewonnen. Wenn nicht, ist klar, dass es eh nie an den Treibern lag.

Und nicht persönlich nehmen, aber: Manche haben einfach kein Händchen dafür ein System ordentlich aufzusetzen. Bei denen macht immer irgendwas Probleme.
 
Kiy schrieb:
@MaverickM Was stimmt mit dir nicht 🤣
Ich habe ganz sachlich geschrieben...

Naja, bei dir war es von anfang nur dummes gequatsche.
Nicht wundern bei ihm geht es einzig und allein nur darum:
MaverickM schrieb:
Solche Berichte, die halt Einzelfälle darstellen vergiften den Ruf von AMD unnötig. Wenn dann das Problem weg ist, haben alle gewonnen.
Der übliche Kindergarten …
 
"Mit dem optionalen Paket soll das System mit Tools für KI-Workloads gerüstet werden." Ab da hab ich dann aufgehört zu lesen, da ich nun das wichtigste wusste... es ist optional. Ich will zocken mit meiner Grafikkarte, irgendwelches KI-Gedöns ist belanglos. Selbstverständlich hab ich auch nicht AMD Chat installiert in Adrenaline.
Ich sag auch mal ganz ehrlich: Ich hab keine Ahnung, was ein "KI-Workload" sein soll...
 
Mein Freund Kai denkt darüber nach, seinen Namen ändern zu lassen.
 
Zurück
Oben