News AMD Adrenalin: Nächste Woche kommt das AI Bundle ins Treiberpaket

Da überall KI beworben wird, muß AMD quasi nachziehen. Das ist Marketing.

Akkulaus schrieb:
Mittlerweile hört man nur noch: AI, AI, AI
Langsam reicht es. SSDs werden mit AI beworben sowie HDDs. Mittlerweile überall. Ich kann es einfach nicht mehr hören.
Wenn man ehrlich ist, ist KI so ziemlich das Gleiche, wie unnötige Anglizismen. Viele werfen damit um sich, obwohl es keinen Grund gibt. z.B. warum AI statt KI?
 
  • Gefällt mir
Reaktionen: Beschi, areiland und Medcha
Inxession schrieb:
Geh mal in den Nürnberger Zoo und dort ins Waldrestaurant.

Die haben 212 (!) x Bio auf der Speisekarte stehen. Kein Witz. Hab nachgezählt.

Hab jetzt per se nichts gegen Bio.
Aber wenn es zu penetrant ist, wirds boykottiert.

Exakt wie das AI/KI Zeugs.
"nachhaltig", auch so ein Wort, welches keine Bedeutung mehr hat. Alles nicht mehr ernst zunehmen:mad:...
 
  • Gefällt mir
Reaktionen: Beschi und Inxession
Braucht man unbedingt!
 

Anhänge

  • 518r0y3hgs7g1.jpg
    518r0y3hgs7g1.jpg
    25,8 KB · Aufrufe: 79
  • Gefällt mir
Reaktionen: Haldi
Kann AMD ja gerne machen.
Aber ohne ROCm Unterstützung liegt das Leistung einfach nur brach.
RDNA3 und älter wird immernoch lückenhaft unterstützt. RDNA4 auch nicht alles.
Mit Vulkan laufen LLMs auf jeder Karte, aber eben nicht mit voller Performance...

Ich habe hier einen Rechner mit genügend RAM und einer RX 780m iGPU. Mit ein paar selbstgebauten Skripten kann ich jetzt 48 GB (vielleicht auch mehr) meiner 64 GB RAM für LLMs unter Ollama verwenden. Aber ROCm funktioniert eben nicht ohne immer wieder den Arsch hoch zu reißen...Vulkan ist da absolut stabil, aber eben auch langsamer.
 
Kiy schrieb:
Google mal diese Probleme. Gibt reichlich Content dazu.

Gibt auch reichlich Probleme selbiger/ähnlicher Art zu nVidia Karten. Heißt nicht, dass es ein generelles Problem ist. Mach eine saubere Installation.

Mr.Uhu schrieb:
Aber ohne ROCm Unterstützung liegt das Leistung einfach nur brach.

Meldung gelesen?
 
ComputerJunge schrieb:
Sicherlich keine "Welt"-Modelle, aber dennoch verdammt gute Modelle. Ich glaube, da ist der lokale VRAM bis 16 GB weiterhin eher - und leider - auf der zu knappen Seite für ein lokales 'Code-Max'-Model.
Richtig, nach meinen eigenen Test letztes Jahr, ob mir "KI" Algorithmen Lokal Arbeit beim Zeichnen abnehmen kann, muss ich sagen NEIN.

Ja die Aufgabe die ich dem Algorithmus (KI) gestellt (Beleuchtung der Outline Vorlage) hatte, hat es schneller ausgeführt, als ich es mit der Hand machen könnte.
Aber das Ergebnis war so ungenau und unsauber ausgeführt, das mit der Nachbearbeitung das ganze länger gedauert hat, als wenn ich es gleich selber mache. 🙄

Daher kann ich mir das auch sparen.😏

Und ja, Online "KI" mag das besser hin bekommen, aber da habe ich zu wenig Kontrolle was mit meinen Daten passiert.
 
  • Gefällt mir
Reaktionen: flynn9 und ComputerJunge
Muntermacher schrieb:
Da überall KI beworben wird, muß AMD quasi nachziehen. Das ist Marketing.
Nein! Lokale Inferenz wird wichtiger und ganz langsam kommen lokale Modelle mit minimalem Nutzen. Man kann sich ja z.B. mal angucken, wie sich Paint auf Copilot+ PCs aktuell aussieht. Dort hat z.B. die Objekterkennung von Meta Eingang gefunden. Klar, keiner, der professionell mit Grafik arbeitet, nutzt Paint. Aber 1990 hat auch kein einziger Grafiker überhaupt mit Computern gearbeitet, weil das nur Spielzeuge und bessere Schreibmaschinen waren.

Jetzt werden die Grundlagen gelegt, ob die Hardware, die man verkaufen will, fähig ist diese Workloads auszuführen. Tut man das nicht wird man in 2-4 Jahren im Prinzip gar keine Hardware mehr verkaufen, weil sie einfach die Basics nicht kann. Und ich glaube, wir sind uns einig, AMD will auch in Zukunft Hardware verkaufen.

Es spielt keine Rolle, wie toll oder schlecht man AI findet (was aktuell echt nervig ist....). Der Vergleich zur Dot-Com-Blase wird immer besser. Damals gab es auch einen Riesen Hype und dann den Absturz und 5 Jahre später war alles das da, was versprochen worden war. OpenAI und Antrophic sind halt die Vobis und Escom von damals.
 
  • Gefällt mir
Reaktionen: Rock Lee
Es sind nur LLMs und keine starke KI - d.h. echte KI.

Merkt die Industrie, dass seitens der Menschen kein Interesse an undefiniertem Verhalten, hohen Preisen und Datenverlusten besteht? Dell hat es schon verstanden. Lenovo noch nicht.

Ich nutze KI nicht, weil es meine Arbeit verbessert. Ich bin gezwungen, weil man mehr Durchsatz erwartet. Das mein Verständnis für den Algorithmus leidet und die Qualität sinkt, ist logisch.

Privat kann ich es nutzen, weil ich es wie eine weiterentwickeltes Google verwenden kann. KI sagt sagt was, ich prüfe, Suche den Beleg, merke es mir und mache weiter. Ist ziemlich gut in “Versuch es zu erklären” mit schwankender Trefferquote.

Letztlich habe ich weder die Zeit noch die Kraft den aufgeblähten KI-Text von Kollegen zu lesen, den 5.000 Zeilen Commit von Kollegen mit AI-Kommentar und Emojis, und die Hausaufgabe verfehlt ihren Zweck.

Aufhalten kann ich es nicht. Nur wo ist der Gewinn für die Menschheit hat noch mehr schlechten Computerprogrammen, noch größeren Power-Points und dem vierten KI-Redneck-Star Trek Abenteuer? Diese LLMs werden uns kein Fusionskraftwerk bauen! Sie können es nicht.
Könnten sie, wenn der Bauplan auf Gitlab unter MIT-Lizenz liegt. Mit zwei oder drei teuren Fehlern. Tja.

NPUs könnte man sinnvoll einsetzen, mit definiertem Verhalten. Mustererkennung :)

Ab einem gewissen Alter hat man zu viel Technologie gesehen? Und fragt:
Okay. Aber wird das Leben besser?
 
telejunky schrieb:
Also Amuse ist schon echt gut,..
Findest du? Ich hatte das direkt mal nach dem Kauf meiner 9070XT getestet (vor 2-3 Monaten) und die Ergebnisse waren durchweg unbefriedigend...da fand ich teilweise sogar ChatGPT besser. Hat sich hier nochmal was getan?

Inzwischen ist Gemini bzw. Nano Banana echt gut für den alltäglichen Gebrauch.
 
Die Sollen mal lieber das "AMD Noise Suppression Technologie" wieder reparieren.
Seit drei Treiber Versionen defekt.
 
  • Gefällt mir
Reaktionen: NoNameNoHonor und zupipo
Anyway ... FSR4 on Vulkan when?
 
  • Gefällt mir
Reaktionen: up.whatever und Virny
MaverickM schrieb:
Ja.
Da steht, dass sie Tools zur Verfügung stellen, um die Entwicklung zu vereinfachen bzw. das Nutzen von LLMs zu vereinfachen.
Da steht nicht, dass die Kompatibilität von ROCm mit etwas älteren oder non-pro Karten verbessert wird.

Laut dem CES Announcement wird es eine Unterstützung von ROCm für Halo und den neuen AI 400 APUs geben.

Also, ja. Ich habe die Meldung gelesen.
 
Akkulaus schrieb:
Mittlerweile hört man nur noch: AI, AI, AI
Langsam reicht es. SSDs werden mit AI beworben sowie HDDs. Mittlerweile überall. Ich kann es einfach nicht mehr hören.

AI schön und gut. Nutze ich immer mal ab und zu. Aber überall steckt ja nur noch das Wort AI drin.
Ai was hast Du denn dageshe' ?
 
CDLABSRadonP... schrieb:
Gut wäre mal ein gelungenes AI-Bundle für die Ryzen-AI-NPUs...

Was zum Beispiel? Die Dinger haben nichtmal ansatzweise genug Leistung um irgendwas sinnvolles (was "normale" CPUs und GPUs nicht auch könnten) damit zu machen. Und das soll kein AMD-bashing sein, Intels AI-CPUs sind genauso nutzlos.
 
fox40phil schrieb:
Dafür bräuchte man sicherlich nicht so große Modelle?


Wenn nicht mal die 400B Modelle die auf mehreren nvidia H100 laufen anständige Resultate produzieren, möchtest du den Code wirklich in 70% schlechter haben?
 
  • Gefällt mir
Reaktionen: MalWiederIch und brooklands
Akkulaus schrieb:
Mittlerweile hört man nur noch: AI, AI, AI
Du hast zu wenig AI in deinem Leben deswegen reagierst du so. :daumen:


Optional anklickbar wäre schön.
 
  • Gefällt mir
Reaktionen: Snoop7676
  • Gefällt mir
Reaktionen: fox40phil, Beschi und NoNameNoHonor
Ich finde das jetzt gar nicht schlecht, ich bin zur Zeit eh daran interessiert lokale Modelle auszuführen, schauen was da zur Zeit alles geht.
Da kommt mir das jetzt gerade echt gelegen.
 
Der Zeitpunkt inmitten einer handfesten Speicherkrise ist natürlich ungünstig, aber mich freut es, dass das erwartete Rumgeheule in der Kommentarspalte doch recht leise geblieben ist und viele Nutzer verstehen, dass AMD beim Thema lokale AI meilenweit abgehängt war gegenüber der etablierten CUDA-Architektur. Ich musste meine liebgewonnene RX 6950XT leider verkaufen, um ComfyUI nutzen zu können. Bin auf eine gebrauchte 3090 umgestiegen.
Das hatte mich vor einem 3/4 Jahr veranlasst eine Mail an AMD zu schreiben wie man deren AI-Umgebungen weiter verbreiten kann. Mein Vorschlag war eine optionale integration in den Treiber. Man hat sozusagen in der Hauptansicht von Adrenalin einen zusätzlichen Tab in dem man Dann einfache KI-Modelle wie Text2Image-Modelle nutzen kann. Plug and Play. Der Treiber macht den Rest. Interessierte User die mehr wollen werden dann auf ein "AI Studio" verlinkt welches einer ComfyUI-Umgebung gleicht oder gleich ComfyUI integriert hat aber eben mit vollumfänglichem Support für AMD Modelle, oder Tweaks und rumfrickeln. Auch wenn mein Input wohl nichts damit zu tun hat, ist es schön, dass es dann doch ähnlich wie ich mir das vorgestellt habe umgesetzt wird.
 
Ich habe immer noch keine Ahnung, wofür ich AI sinnvoll gebrauchen könnte. Daher an dieser Stelle ein großer Dank an AMD, dass das optional ist (& hoffentlich auch bleibt).
 
  • Gefällt mir
Reaktionen: areiland
Zurück
Oben