News AMD Adrenalin 26.1.1: Erster Radeon-Treiber des Jahres bringt das AI Bundle

So was braucht kein Mensch im Grafikkartentreiber integriert, für die Bequemen (also Doppelklick und alles benötigte ist integriert inkl. Model-Browser) gibt es Stability Matrix (mit Stable Diffusion und allen möglichen UIs). Und RDNA3 kriegt natürlich weiterhin kein FSR4 Super Res (mit INT8). Na ja, war zu erwarten, da kommt 'eh nichts mehr. War ja nichts versprochen, haben nur die Medien so interpretiert.
 
Mu Wupp schrieb:
Sobald ich die Adrenalin Software starte, hält diese konstant den Speicher auf trab. Ohne geöffnete Adrenalin Software verhält sich die Karte ganz normal. Sobald ich diese öffne fängt die Karte bzw. der Speicher fleißig an, rauf und runter zu takten.
Vielleicht haben sie jetzt GPU Hardwarebeschleunigung oder soetwas in die Adrenalinsoftware eingebaut.
oder sie haben mal wider das Sensorreporting umgestellt, wie vor ein paar treiberversionen.
 
@Dark Soul @Mu Wupp @Nick427 Habt Ihr alle nur einen Monitor angeschlossen?

Screenshot 2026-01-22 000200.jpg
 
Medcha schrieb:
34 GB für AI Shit, den ich nicht brauche... hmm, was mach ich bloß?

Installieren und direkt eine neue SSD bestellen natürlich!

Aber Spaß beiseite, ist eigentlich eine ganz sinnvolle Sammlung, falls man also Interesse hat, ist es ein guter Startpunkt.
 
  • Gefällt mir
Reaktionen: iron_monkey und Duffy Duck
LukS schrieb:
Vielleicht haben sie jetzt GPU Hardwarebeschleunigung oder soetwas in die Adrenalinsoftware eingebaut.
oder sie haben mal wider das Sensorreporting umgestellt, wie vor ein paar treiberversionen.
Hey der Ansatz mit der Hardwarebeschleunigung ist gar nicht verkehrt gedacht.

Könntest Du das eventuell kurz erläutern bezüglich des Sensor Reportings? Ich habe meine Hardware erst seit Ende Oktober letzten Jahres und habe mich deshalb kaum bis gar nicht mit der Adrenalin Software befasst und auch keine Erfahrung gehabt.​
 
@Nick427 Ich möchte auch so niedrige Verbrauchswerte im idle. Den dritten Bildschirm abzuschalten hat jedenfalls nichts geändert.
 
1769039708273.png

Treiberinstallation ging einwandfrei über die bühne und auch der verbrauch ist unverändert, schwankend im Idle zwischen 4-7W

@DITTY
Mag sein das du recht hast, aber die gamer die noch unter anderen RDNA3 nutzen wollen lieber FSR4 statt dem KI zeug. Hätte man FSR4 abwärtskompatibel/eingeschränkt gebracht und hinterher diesesn KI kram hätte wohl niemand gemeckert, so aber schon und das auch in mein augen zurecht.
Ganz hart triffts ja nutzer einer XTX welche abgesehen von RT keine mehrleistung bei RDNA4 bekommen. Das gegenteil ist der fall, man hat sogar 8GB weniger
 
Zuletzt bearbeitet:
Bierliebhaber schrieb:
@Kaufmannsladen

Wenn AMD bei Features hinterherhängt wird rumgeschrieen, wenn AMD die Lücke zu nVidia kleiner macht ist es auch wieder nicht recht... was denn nun?

Es ist wahrscheinlich genau umgekehrt. CUDA unter Windows war bisher doch der einzige wirkliche Grund, eine nVidia-GPU zu kaufen, alleine weil ROCm auf Windows quasi nicht existierte. Jetzt bietet AMD zumindest auf dem Papier bist auf das blödsinnige MFG eigentlich ein vergleichbares Gesamtpaket. Wie oft hat man in Kaufberatungen gelesen "nutzt du den PC für irgendwas anderes außer Zocken musst du nVidia nehmen, weil CUDA"? Wenn ROCm jetzt auch unter Windows unterstützt wird wird AMD damit WESENTLICH mehr Geld machen als ein kleines Treiberteam kostet, was die wenigen noch vorhandenen Fehler behebt.

Außerdem gehts ja um seine Grundprämisse. Er hat behauptet dass niemand drauf gewartet hat, was Schwachsinn ist, alleine hier im Thread gibts ja einige. Und er hat behauptet, dass AMD stattdessen lieber Fehler beheben sollte, was auch Schwachsinn ist, weil AMD beides PARALLEL macht, was man auch wüsste wenn man den Artikel auch nur überflogen hätte.

So ein "mimimi, ich hasse AMD weil die Features bringen auf die zwar viele gewartet haben die ICH aber nicht brauche und bastele mir meine eigene Realität um meine Abneigung zu rechtfertigen" braucht einfach niemand.

Es ist sogar noch absurder, wie die Leute hier Realität ignorieren:
Fakt ist, dass weder NVIDIA, noch AMD/ATI (GPU-Sparte) das große Geld mit Endkunden (B2C) und dem Gaming-Bereich machen.

Der Hauptgrund für CUDA war schon 2011/12 nicht der Gaming-Bereich, sondern schon damals der Scientific-Bereich, später dann zusätzlich der Data Science-Bereich, was wiederum die Grundlage für den KI-Bereich darstellt. Problem war aber, dass vor Jahren etablierte Modelle wie ChatGPT oder auch Dev-Library’s wie PyTorch faktisch nicht mit RoCm/Hip liefen, sondern fast ausschließlich CUDA-GPUs benötigten. Und zu behaupten, kaum wer bräuchte KI, lügt, dass sich die Balken biegen. Extrem viele Menschen nutzen KI-Dienste, wenn nicht lokal, dann eben extern oder nutzen fertig trainierte Modelle. Ja was glauben die Leute, auf was diese Modelle trainiert wurden? CPUs alleine definitiv nicht. Und dann gibt es weitere Anwendungen, die KI-Modelle einbinden (Bildbearbeitung, Videobearbeitung, etc.). Ja selbst in GPUs selbst nutzt man inzwischen Modelle, um Frames zu generieren oder Gaming-Szenen und -Objekte realistischer zu rendern. Dumm nur, dass lange Zeit dies hardwarebeschleunigt oder überhaupt nur mit CUDA-GPUs von den Grünen ging. Warum? EBEN GENAU DESHALB, weil AMD lange Zeit das ganze Dev-Ökosystem und das integrierte Erlebnis verpennt hatte. NVIDIA hat das Potenzial bereits seit der der ersten CUDA-Generation erkannt und bietet seither nicht nur entsprechende Treiber, sondern entsprechende fertig installierbare SDKs, DEV-Support und Integration in 3rd-Party-DEV-Projekte (PyTorch, Gaming-Engines, Grafik-Libs, etc.), die nicht mal von ihnen sind. Natürlich wandern dann all diese Möglichkeiten (Unified Shader, Direct Memory Access, Massive Core-Parallism, GPU-Hardware-Beschleunigung, Raytracing, KI/ML/DL-based Frame Generation etc.) dann auch mit der Zeit in praxisrelevante Lösungen für Scientific, 3D-Modelling, CAD, Data Science, KI und ja, auch ins Gaming. Allein die PhysiX-Reimplementierung als Software basierte später auf CUDA. HIP ist wiederum die freie Reimplementierung der CUDA-API für alle GPU-Hersteller. Es mangelte aber jahrelang an fehlenden oder unvollständigen Target-Implementierungen bestehender etablierter Tensor- und 3D-Library’s, also der Grundlage für viele Anwendungen der Multimedia-Bearbeitung, des Gaming, industrieller Bereiche und ja, auch dem Data Science/KI-Bereich. Wer hier behauptet, dass nach all diesen Sachen kein Hahn kräht, zeigt einfach absolute realitätsferne. Selbst Browser-Entwickler implementieren zunehmend Hardware-Beschleunigung und WebGPU-Shader. Was glaubt man wohl, wie das am Ende bei der Ausführung auf die GPUs kommt?

Von daher: JA, es krähen sogar nicht Wenige nach mind. einfach integrierten CUDA-artigen Features/APIs und darauf aufbauenden Lösungen und es krähen auch genügend nach konkreten einfach integrierten KI-Lösungen. Die Treiber werden auch nicht einzig und allein für Gamer gemacht, auch dann nicht wenn GPU-Hersteller wie NVIDIA Treiber als „Gaming-Driver“ oder „Studio-Driver“ schimpfen. Die GPU-Treiber von/für AMD und NVIDIA sind AUCH und inzwischen sogar primär für Business-Kunden, Entwickler oder Media-Bearbeiter und ja, auch für KI-User entwickelt und nicht nur für B2C-Gamer. Es ist also nur folgerichtig, wenn AMD hier endlich zunehmend zu NVIDIA gleichzieht oder zumindest aufrückt, erst recht, wenn der Markt des Data Science, diverser Industrien und KI inzwischen mit weitem Abstand den Gaming-Markt monetär und von der Anwenderzahl her seit JAHREN abgehängt hat, Tendenz weiter zunehmend.
 
Ist irgendwie das Bundle der Verzweiflung. Nvidia ist deutlich besser mit CUDA aufgestellt auch wenn AMD schon so einiges getan hat, welches auch löblich ist.

Wichtige Sachen wie Cupy machen den entscheidenden Unterschied und da läuft ROCM bzw. Pytorch nicht.
 
Zuletzt bearbeitet:
Das hier muss auch neu sein, hab ich vorher noch nie gesehen, klingt wie der DLSS Override, nur dass er sich die neueste Datei jetzt selber aus dem Internet zieht (von AMD) statt bisher vom Treiber selber? Keine Probleme übrigens, Installation und Spiele alles super, vorher (wie immer) mit DDU gesäubert. Bei mir auch 23 bis 25 Watt im Idle (9070 XT, 240 Hz)

Okay Nachtrag, mit dem neuen Treiber habe ich sporadische Grafikfehler in Talos Principle Reawakened (UE5), die ich vorher nicht hatte (bei selben Einstellungen), andere Spiele soweit fehlerfrei.
Screenshot 2026-01-22 014519 - Kopie.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: No_Toxic_Gamer
LMStudio weigert sich beharrlich, nicht-CUDA-GPUs zu erkennen. Ich glaube, ich habe alles relevante (OpenCL, ROCm,...) installiert, aber LMStudio sagt nein.

Welche LLM ist das, weiss das jemand? Kann man die unter Linux mit Ollama nachinstallieren und hat dann auch die ganzen Tools?
 
Sehr gut. Gleich mal ausprobieren. Amuse nutze ich schon seit einem guten Jahr. Sehr Einsteiger-freundlich und anders als noch vor einem Jahr (NSFW) mittlerweile auch absolut stabil. Werde mich definitiv auch mal versuchen in ComfyUI einzuarbeiten. Die lokalen LLMs benötige ich persönlich nicht, aber schön, dass da auch was dabei ist.

RaptorTP schrieb:
Tools kann ich leider aktuell nichts von gebrauchen.
Medcha schrieb:
34 GB für AI Shit, den ich nicht brauche...
Hatsune_Miku schrieb:

Achja, typisch mal wieder. Der Blick über den Tellerrand scheint für einige eine unglaubliche Herausforderung zu sein.

Hatsune_Miku schrieb:
Ich glaube niemand hat wirklich darauf gewartet

Doch, ich. Und bin sicherlich auch nicht der einzige. Wegen Amuse habe ich mir nicht zuletzt die 7900XTX angeschafft, statt auf RDNA 4 zu warten.
 
  • Gefällt mir
Reaktionen: Michael vdMaas
Metalveteran schrieb:
LMStudio weigert sich beharrlich, nicht-CUDA-GPUs zu erkennen. Ich glaube, ich habe alles relevante (OpenCL, ROCm,...) installiert, aber LMStudio sagt nein.

Hab keine Probleme damit benutze LM Studio schon seit Ewigkeiten. Windows 11

mit ner 9070 XT sieht das dann so aus

1769044617691.png
 
  • Gefällt mir
Reaktionen: No_Toxic_Gamer
@therealcola Ich habe meine 9070XT gerade nicht zur Hand (RMA -.- ), hast Du irgendwas nachinstalliert? Mein Garuda KDE Lite ist ziemlich "blank" was sowas angeht. Offenbar fehlt mir da irgendein Paket?!

Sorry, nicht gesehen dass Du Windows 11 nutzt. Könnte ich aber mal probieren ob es da alles relevante mitbringt.
 
Zuletzt bearbeitet:
Mu Wupp schrieb:
Hat noch jemand die Beobachtung gemacht das der Idle Verbrauch im Vergleich zum 25.12.1 "viel" höher ist?

Bei mir tatsächlich umgekehrt. Mit 25.12.1 etwa ~24W, mit 26.1.1 etwa ~20W. Beides allerdings nicht echtes Idle... (Nein, bitte jetzt nicht diese Diskussion wieder anfangen...)
 
  • Gefällt mir
Reaktionen: Michael vdMaas und Simanova
Ich sehe hier bei mir keine Unterschiede im Idle Verbrauch:

Adrenaline 25.12.1:
3-4 W Idle

Adrenaline 26.1.1:
3-4 W Idle

GPU
AMD Radeon RX 6600
Monitor angeschlossen an HDMI

Allerdings hat sich die AMD Software꞉ Adrenalin Edition 26.1.1 (RadeonSoftware.exe) jetzt schon das zweite Mal unvermittelt beendet. Daher bin ich wieder zu Version 25.12.1 zurückgekehrt.
 
Zurück
Oben