Notiz Radeon Software Adrenalin 21.6.1: AMDs Grafiktreiber für FSR steht zum Download bereit

feidl74 schrieb:
FSR ist open source und hat keine bestimmten treibervoraussetzungen zur folge.
Release Notes zum 21.6.1
* AMD FidelityFX Super Resolution (FSR) support for select titles.
 
Polaros schrieb:
Wäre ja auch peinlich, wenn eine UVP 1500€ Karte langsamer wäre als eine UVP 650€ Karte.
Es ist auch schon so peinlich genug eigentlich wenn man DLSS,RTX/Mining Performance und den grossen Speicher der 3090 aussen vor lässt,da je nach Model so eine 6800xt gefährlich nahe an die 3090 kommt,viel gefährlicher als die Preisdifferenz vermuten lässt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, sven_011 und Inxession
feidl74 schrieb:
warum sollte es das? dlss ist ja nur nen gimmick, damit man dann mit RT "total saugeil gut", in irgnedwelchen benches steht;). auch ohne dem FSR spiele ich vorwiegend 4k und schaffe weit über die 60fps;).
DLSS ist zu weit mehr zu gebrauchen, und sei es, dass du, wenn du in 4K spielst und jetzt schon mehr als 60FPS hast, dir aber 60FPS auch ausreichen, diese mit DLSS auch mit weit weniger GPU Power erreichen kannst und somit deutlich weniger verbrauchst.
 
  • Gefällt mir
Reaktionen: Czk666
Ich vermute mal, dass es in den Games dann unter der "offiziellen" Abkürzung in den Optionen auftaucht.

Also sowas wie "AMD FSR".
Das die es ausschreiben glaube ich nicht. - Aber abwarten^^
 
Taxxor schrieb:
Release Notes zum 21.6.1
* AMD FidelityFX Super Resolution (FSR) support for select titles.
naja ist es nun was anderes wie fx fidelity oder ist es ein und das selbe nur anderer name, nähmlich fx fidelity super resolution^^
 
feidl74 schrieb:
naja ist es nun was anderes wie fx fidelity oder ist es ein und das selbe nur anderer name, nähmlich fx fidelity super resolution^^
Fidelify FX ist der Überbegriff der Software Suit von AMD, in der ab heute eben auch Super Resolution enthalten ist.
Auch darin enthalten ist Fidelity FX CAS, welches aktuell in Anno 1800 zum Einsatz kommt und auch unter anderem in Cyberpunk oder Death Stranding.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und foo_1337
Taxxor schrieb:
GPU Power erreichen kannst und somit deutlich weniger verbrauchst.
dafür undervolte ich. mehr wie 150 watt zieht meine rx 6800 nicht...
ich halte aber auch von raytracing nichts, da es weder in control, noch world of warcraft wirklich auffällt, bzw sogar etwas overkill, wirkt
 
feidl74 schrieb:
dafür undervolte ich. mehr wie 150 watt zieht meine rx 6800 nicht...
Das eine schließt das andere doch nicht aus(zumal du mit den 150W wohl übrigens den ASIC Verbrauch der Karte meinst und nicht den wirklichen Verbrauch, aber das ist ein anderes Thema).

Als ich die 2080Ti hatte, war die auch undervoltet und hat z.B. in Watch Dogs nur 190W statt 240W gezogen. Mit DLSS Balanced wurden daraus dann eben 130W bei den gleichen FPS.

Das gleiche mit FSR. Wenn FSR einem +50% FPS geben kann, man die FPS aber in dem Bereich limitiert, wo sie vorher waren, fällt der Verbrauch eben massiv nach unten.
 
  • Gefällt mir
Reaktionen: DannyA4, Bluetrance und Czk666
ork1957 schrieb:
GCN 3 und älter werden übrigens nicht mehr unterstützt, also alles was älter als Polaris ist
Ja...😟betrifft leider meinen Laptop (A6-6310 / Radeon R4), ist zwar nicht der Schnellste, aber läuft echt noch rund. Nur ohne Treibersupport sehe ich auf lange Sicht schwarz bei Windows Updates, 21H2 evtl. noch in der non Windows 11 Variante, danach siehts duster aus...

Trotzdem, werde ich den Treiber mal auf meinem Hauptsystem (R7 3700x / RX550) testen und schauen ob der TDR Bug damit gefixt wurde. Manchmal tritt der random auf, leider häufig auch beim Streamen, wodurch der Stream komplett zusammenbricht. Hoffe der Treiber hilft.

FSR, werde ich vermutlich so schnell nicht nutzen, da ich schlicht keine aktuellen Spiele dafür habe. Der Test wird bestimmt trotzdem interessant.

MfG
Christian
 
der Unzensierte schrieb:
Ich erwarte keine Wunder, muss aber zum wiederholten Mal konstantieren das AMD entweder mehr oder früher liefert als angekündigt. Ich hoffe das dies schöne Tradition wird. Wenn die Auswahl der Spieletitel wie durchgesickert zutrifft ist da nix bei was in meinem Fokus steht. Und wer der Meinung ist die Anzahl der Titel zum Start ist ein Witz möge sich noch einmal den Artikel zu FF XV mit DLSS hier auf CB reinziehen. Die ersten Zeilen genügen zur Not auch zu Erleuchtung.
"dass der Modus Ultra HD optisch nicht ersetzt, aber durchaus eine schnellere Alternative darstellt, die besser aussieht als WQHD"

wenn das auf fsr zutreffen sollte, bin ich zufrieden.
 
Dass AMD gerade jetzt in Zeiten von GPU Mangel den Support für alte Karten streicht ist schon etwas hart und wirkt ziemlich unüberlegt.

Die R9 290X oder R9 390X sind doch noch brauchbare Karten und grob irgendwo im Leistungsbereich einer GTX1060 oder auch RX470 unterwegs.

Dass man die HD7000er langsam rauswirft kann ich dann schon verstehen, auch wenn die auch noch brauchbar sind, aber neue Games wird damit wohl keiner mehr zocken. Aber für die oben genannten find ichs ziemlich schade.
 
Taxxor schrieb:
den ASIC Verbrauch der Karte meinst und nicht den wirklichen Verbrauch
damit meine ich die total board power (TGP/TBP) da nehmen sich beide werte nicht viel, laut hwinfo (Avg und Max)zumindest
 
feidl74 schrieb:
damit meine ich die total board power (TGP/TBP) da nehmen sich beide werte nicht viel, laut hwinfo (Avg und Max)zumindest
Auch wenn das hier nicht Thema ist, kann ichs gerne noch mal kurz erläutern. Die TBP der 6800XT liegt bei 300W, was auch in allen Tests so gemessen wurde. Die TGP, also das was HWInfo als PPT anzeigt, oder auch die Radeon Software, leigt dabei bei 255W.
Analog zur 6800 liegt deren TBP bei 250W, während die TGP bei 209W liegt.

Die TBP kann von keiner Software ausgegeben werden, sondern muss physisch gemessen werden.
Man kann sich auch relativ zum Unterschied, der bekannt ist, an die TBP annähern, wenn man sie nicht selbst messen kann, also 300W/255W = 1.176 -> den ausgegebenen PPT Wert kann man mit diesem Faktor verrechnen um ca auf den Kartenverbrauch zu kommen, wobei der Faktor etwas größer werden muss, je niedriger der Verbrauch wird, da manche der Zusatzverbräuche auch statisch sind..
 
  • Gefällt mir
Reaktionen: DannyA4 und Czk666
Leg an AMD. Punkt 15 Uhr! Ich bin bereit, enttäuscht zu werden. Bin nur gespannt, wie groß die Ernüchterung sein wird. Am meisten freue ich mich wieder auf die Kommentare der Techenthusiasten und eben jene, die schon zur Träumerei neigen:

Weil wird ja alles noch ganz toll weil Open Source und so, gell? Und weil's ja viel einfacher zu implementieren ist werden das ja ganzbald, also eigentlich schon jetzt aber halt erst später, weil muss ja noch besser werden und, also jedenfalls werden das jetzt gaaanz viele, also eigentlich fast alle, also wirklich ALLE Spieleentwickler jetzt implementieren werden. Pfadfinderehrenwort! \s
 
feidl74 schrieb:
damit meine ich die total board power (TGP/TBP) da nehmen sich beide werte nicht viel, laut hwinfo (Avg und Max)zumindest

Die AMD RDNA2 Karten haben keinen Sensor der die "TBP" ausgibt. - Du hast in HWinfo den "ASIC" Wert. Da musst du bei den 16 GB Karten noch ca. 40-45 Watt draufrechnen um den "echten" Gesamtverbrauch zu haben.

Meine 6900 XT steht in HWiNFO auch mit max. 255 Watt, zieht aber eben ihre ~300 Watt. Für den Gesamt-Kartenverbrauch gibts aber halt keinen Sensor, der für "uns" ausgelesen wird. Das ist jetzt bei AMD aber auch nichts neues.
 
  • Gefällt mir
Reaktionen: DannyA4 und Taxxor
Endlich nur 9Watt verbrauch bei 165Hz.
 
  • Gefällt mir
Reaktionen: Czk666
dann bin ich entweder blind oder ich habe eine spezialkarte. das ist einfach im idle ohne last. in games weichen die werte dann schon ab, aber nicht massiv. btw kann man es auch am verbrauch des NTs sehen, ich zumindest...
 

Anhänge

  • tgp.PNG
    tgp.PNG
    8,8 KB · Aufrufe: 231
B3nutzer schrieb:
Dass AMD gerade jetzt in Zeiten von GPU Mangel den Support für alte Karten streicht ist schon etwas hart und wirkt ziemlich unüberlegt.
Sie unterstützen alles bis zur RX470, was in meinen Augen absolut okay ist. Bei den Generationen davor wird dir so ein Feature auf Dauer auch nichts mehr bringen. Irgendwo sollte man da wirklich mal realistisch bleiben.
 
  • Gefällt mir
Reaktionen: ReignInBlo0d und DannyA4
TopKak schrieb:
Bei den Generationen davor wird dir so ein Feature auf Dauer auch nichts mehr bringen. Irgendwo sollte man da wirklich mal realistisch bleiben.

Warum? R9 390X und co sind genauso schnell und haben auch bis 8 GB VRAM. Gibt sicherlich viele aktuelle Karten, die noch supportet werden und langsamer sind. Macht bei denen für dich der Support dann auch keinen Sinn mehr?

Ich kann ja verstehen, wenn man alte Zöpfe abschneiden will. Ist ja auch mit Kosten verbunden. Aber aktuell ist halt wirklich der ungünstigste Zeitpunkt für sowas...
 
feidl74 schrieb:
dann bin ich entweder blind oder ich habe eine spezialkarte. das ist einfach im idle ohne last. in games weichen die werte dann schon ab, aber nicht massiv. btw kann man es auch am verbrauch des NTs sehen, ich zumindest...
Volle Last unter FurMark, bei dem die 6800XT definitiv 300W verbraucht.
255W ist das höchste, was HWInfo anzeigen kann, weil es das einzige ist, was die GPU als Sensor nach außen gibt. fehlen noch 45W, die nicht ausgelesen werden können.
Deshalb schreibt HWInfo ja auch überall "GPU" davor, weil es sich eben nur um den Chip handelt, nicht um die ganze Karte, das wäre dann die Board Power.
Screenshot 2021-06-22 144241.png
 
  • Gefällt mir
Reaktionen: DannyA4
Zurück
Oben