Notiz AMD Radeon Adrenalin 2020: Bilder zeigen „Radeon Boost“ als Treiber-Aufwertung

Rock Lee schrieb:
Find ich per se erstmal nen tolles Feature.

Ich finde es immer putzig, dass sowas bei AMD ein tolles Feature ist und bei nVidia Betrug.
Als Referenz kann man sich dazu mal den Kommentarbereich zum VRS bei nVidia durchlesen. Ist auch nicht allzu lang.
Man müsste mal ne Liste machen welcher User zu welchem Thema wie kommentiert. Mich würde es interessieren ob viele unterschiedliche User mit unterschiedlichen Ansichten kommentieren oder ob es jeweiliges Fanboygelaber ist.
 
  • Gefällt mir
Reaktionen: Schattenspender, Charminbaer und r4yn3
SV3N schrieb:
Ich denke, gegen eine konkurrenzfähige RX 5800/5900 oder eine RX-6000-Serie auf Basis von RDNA2 hätte hier niemand etwas, auch Nvidia-Käufer nicht.

Bei mir wird’s spätestens im Februar 2020 eine aktuelle GPU auf dem Niveau einer 2080 Super und wenn eben die 2080 Super zu dem Zeitpunkt in dem Preisbereich vorne liegen sollte, dann wird’s eben diese.

Denke dagegen hat niemand etwas. Mir ist der Hersteller relativ egal. Bei gleichwertigen Produkten würde ich aus Sympathie AMD bevorzugen, aber Hauptargument ist: Wer liefert bei meinem Budget das bessere Produkt.

Würde nächstes Jahr auch gerne eine neue Karte kaufen. In 1440p ist Vega teils ziemlich an den Grenzen bei neueren Titel. Leistungstechnisch sollte die nächste schon richtung 40-50% Mehleistung gehen. Also auch irgendwas wie die 2080 Super / 2080Ti. Aber ich kann noch etwas warten. Mal sehen, was AMD noch vorstellt. Evtl gibts die Leistung ja auch bei der RTX 3000er Generation als 3070 zu einem etwas besseren Preis. Bei der 2080 super würde mich der

SV3N schrieb:
Die letzte Nvidia die ich hatte, war eine GTX 960 4GB mit der ich recht lange und zufrieden in Full HD gespielt haute.

Meine letzten Drei Karten waren Nvidias ( GTX 570 > GTX 670 > GTX780Ti). Die 780Ti hatte ich auch recht lange und war damit recht zufrieden. Nur der Speicher war am Ende echt etwas nevig klein. Da war ich aber auch noch in Full HD unterwegs. Die lief bis vor Kurzem bei nem Freund, bis sie gestorben ist. Einen Kondensator hat es richtig weggefetzt und die Platine mit beschädigt. Tja soviel zu den so tollen hochwertigen Komponenten auf High End Grafikkarten. War eine Asus Matrix.

ryzen- schrieb:
Hat die dann nicht mehr gereicht in FHD?

Sicher kann man auch heute noch mit einer GTX 960 in Full HD Spielen. Ist einfach immer eine Frage, welche Kompromisse man eingehen möchte, bzw. welche Frameraten man bei welcher Qualität erreicht werden sollen

Rock Lee schrieb:
Sehr das als Chance für Leute, die sich nen 1440p Monitor gekauft haben, aber noch ne Polaris Karte im Rechner haben. Statt dauerhaft mit Medium Settings zu spielen, könnte man auch auf High spielen und dafür in beanspruchten Szenen eben eine etwas geringere Auflösung haben aber trotzdem flüssig zocken.


Theoretisch ja, praktisch wird man dann immer mit niedrigerer Auflösung fahren müssen, wenn man die Grafikeinstellungen hochdreht. Es ist in vielen Spielen selten der Fall, dass nur vereinzelt Kure Szenen extrem Anspruchsvoll sind und das restliche Spiel dafür super läuft.
 
  • Gefällt mir
Reaktionen: Charminbaer und SVΞN
Auf ein "aehnlich sinnvolles" Feature wie bei nVidia DLSS koennte "Boost" hinauslaufen, denn im Endeffekt muss man eben Qualitaet opfern, um mehr Leistung/besseren Spielfluss zu bekommen.

Es fragt sich dann, wie auffaellig der Qualitaetsverlust denn bei "Boost" sein wird und ob die Umsetzung dann aehnlich schwankt wie bei DLSS (?), welches bisher vielerorts eher nicht optimal umgesetzt wird/werden kann.

AMD/RTG kocht auch nur mit Wasser und ein neues "Wunder-Feature" wird "Boost" wohl kaum werden, aber, schoen zu sehen, dass man sich dort Gedanken macht und an solchen Features arbeitet, wobei ich dann doch lieber die Zeit in Hardware-Features bzw. Architektur-Optimierung angesiedelt sehen wuerde als in Softwareloesungen.

Ob das "Boost"-Feature des kommenden Adrenalin-Treibers wohl ein Vorbote fuer AMDs/RTGs im kommenden Jahr nahende RDNA2-Architektur und RT-Raytracing-Einstieg im Gaming-GPU-Bereich sein soll (fuer ein aehnliches Zusammenspiel wie bei nVidias RTX und DLSS)?

Das wuerde dann ja auf einen vergleichbaren Ansatz seitens AMD/RTG fuer RT-Raytracing hindeuten wie bei nVidia (oder vielmehr, dass man etwas zur Entlastung/Gegensteuerung des Leistungshungers von einem RDNA2 RT-Raytracing brauchen koennte).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer und Colindo
ryzen- schrieb:
Hat die dann nicht mehr gereicht in FHD?

Wie ich schon sagte, ich war recht lange sehr zufrieden mit der GTX 960 4 GB in Full HD unterwegs.

Ich vertrete ja immer die Devise, dass Software Hardware verkauft und bei mir war’s The Witcher III und dessen zwei Erweiterungen.

Ich hatte bereits mit der GTX 960 reingeschnuppert, habe aber mir vorgenommen, dass ich das Spiel noch einmal im vollen Umfang genießen möchte, sobald ich auf WQHD und 144 Hz umsteige.

Als ich den Samsung C32HG70 gekauft habe, habe ich mir dann eine Nitro+ RX Vega 56 gegönnt, welche [mit OC und UV] The Witcher III auf WQHD und max. Details bei 75 fps+ auf den Schirm zaubert.

Mittlerweile möchte ich die letzten 30 Prozent meines zweiten sehr ausgiebigen Durchlauf aber sogar mit 100 fps+ und noch einmal per .ini aufgemöbelten Details genießen und der Umstieg auf 3.840 x 1.600 Pixel ist auch schon in Planung. :D

Da muss also zeitnah noch einmal erheblich mehr Leistung her. ;)
 
  • Gefällt mir
Reaktionen: Charminbaer, ryzen- und Shoryuken94
@SV3N

Kann ich gut verstehen :) habe eine Vega 64 UV / OC und einen 1440p 165Hz Monitor. Je nach Spiel schlägt sich die Vega noch gaz gut, in anderen Spielen siehts aber schon nicht mehr so toll aus. Ohne Bedenken alles in 1440p in vernünftiger Qualität spielen ohne großen Konfigurationsaufwand geht leider nicht.

Und wenn man sich erst mal an hohe Frameraten gewöhnt hat, ist der Sprung zurück immer sehr schwer, selbst bei eher langsameren Spielen wie The Witcher.
 
  • Gefällt mir
Reaktionen: SVΞN
DocWindows schrieb:
Mich würde es interessieren ob viele unterschiedliche User mit unterschiedlichen Ansichten kommentieren oder ob es jeweiliges Fanboygelaber ist.
Da must du dir keine Sorgen machen. Ich sehe es bei beiden als Cheat oder zumindest nicht sinnvoll. Bei NV kommt ja noch die Absicht ihr vollkomen misslungenes Faketracing zu verstecken. Da werden dann 50% der Leistung verbrannt um irgendwo an der Auflösung zu sparen. Das ist dann echte Bildqualität.
Als Vega Besitzer freue ich mich mir dazu einen ab wenn die Zeit in solche Müllfunktionen geht und nicht in Dinge die mal versprochen wurden aber nie gekommen sind.
 
r4yn3 schrieb:
Auflösung runter, gut ist.
Dann hat man halt dauerhaft die schlechtere Qualität und nicht nur dann wenn die FPS mal einbrechen sollten.

Ich stell mir das Feature vor allem für VR als hilfreich vor damit man das Maximum an Qualität rausholen kann ohne Probleme mit FPS-Einbrüchen zu bekommen (die bei VR besonders problematisch sind). Muss sich natürlich erst noch zeigen ob das tatsächlich so gut funktioniert.
 
  • Gefällt mir
Reaktionen: Charminbaer
AMD sollte lieber mal ordentliche starke konkurrenzfähige Grafikkarten bauen. Anstatt so Treiber Spielereien.
 
mir alles Banane Hauptsache Integer-Scaling kommt !
 
Jesterfox schrieb:
Dann hat man halt dauerhaft die schlechtere Qualität und nicht nur dann wenn die FPS mal einbrechen sollten.
Wenn man sich die Videos von HiAlgo ansiehst hast du das sowieso immer wenn du dich bewegst.
Wie Chill nur mit dynamischer Auflösung.

Und wenn ich dann in belebten Welt dämlich rumstehe ruckelt alles im Hintergrund vor sich hin.

Ob sich das dann wirklich so implementieren lässt das sich die Auflösung on the fly an die FPS koppeln lassen muss sich zeigen.
Aber gut, ich war auch schon kein großer Fan von Chill, weil ich mit dem Feature nicht viel anfangen kann.
 
  • Gefällt mir
Reaktionen: Charminbaer
Ohne alles jetzt im Detail gelesen zu haben muss man das Cheaten und alle Kommentare die in dieselbe kerba schlagen schon etwas belächelnd sehen.

Damals waren die Tests von Grafikkarten recht hart im Vergleich zu heute. Ich sehe kaum bis (und das ist leider die Mehrheit) überhaupt keine Tests mehr zur Bildqualität. Gerade Leute die HDR spielen habe da mit Nvidia Grakas lange nicht so eine Freude wie AMD Spieler. Es gibt tietel wo massives Colorbanding auftritt. Selbst bei nicht HDR Titeln ist das ab und zu, zu beobachten. Werden ab und zu noch anisotopie Tests gemacht? War damals Standart. Im Grunde Cheaten die hersteller immer ein bisschen (Optimieren). Gerade bei Breakpoint gehabt wo ich Windenergiekraftwerke gesehen habe und sagte Mensch das ist aber armselig das die Rotoren zu sehen sind aber die Monopyles ausgeblendet sind. Wir saßen alle im Hubschrauber und ein weitere Kollege mit einer 5700xt (ich 1080) sagte ne die sind bis aufs mehr rauf zu sehen. (Einstellungs bereinigt) Da es aber ohne weitere Erwähnung einen Treiber gab von den grünen wo aufeinmal massiv die Leistung zu genommen hat stand ausser frage.

Ich bin komplett offen für Dinge die Sachen effizienter machen. Solange ich die Wahl habe es selbstständig zu entscheiden und es mir nicht auf indoktriniert wird ist das absolut OK!

Nicht OK ist wie Nvidia damals versucht hat mit massiv getunten treibern ohne Wissen von Dritten irgendwie an ATI dran zu bleiben. Das ist schlicht beschiss und die fehlenden Monopyles zähle ich da auch zu... Die ganze game ready rotze macht mehr oder weniger genau das!

Grüsse

Wer von beiden jetzt mehr schummeln darf man sich jetzt aus malen. Denke aber das zumindest im moment die grünen nicht die Notwendigkeit hätten, was aber nicht heisst das sie nicht diesen Wege gehen würden. AMD war da immer konservativer... Damals so wie heute haben die sich nicht immer solche brocken geschossen, was nicht heisst das sie es nicht haben...

Man glaub es ja kaum es soll sogar Chiphersteller geben die massive sicherheitslücken einbauen weil sie Überhaupt nicht wissen wie sie in schneller bekommen sollen... Und wiederum ist noch mehr kaum zu glauben das Leute diese Dinger genau deshalb noch kaufen...

Grüsse
 
  • Gefällt mir
Reaktionen: Charminbaer
FeldiSan schrieb:
Gerade bei Breakpoint gehabt wo ich Windenergiekraftwerke gesehen habe und sagte Mensch das ist aber armselig das die Rotoren zu sehen sind aber die Monopyles ausgeblendet sind. Wir saßen alle im Hubschrauber und ein weitere Kollege mit einer 5700xt (ich 1080) sagte ne die sind bis aufs mehr rauf zu sehen. (Einstellungs bereinigt)
Nicht dass ich dir hier nicht glauben würde, aber sowas sollte man doch einfach anhand Screenshots belegen können oder nicht?
Bzw. müsste das doch bei etlichen Vergleichsvideos mehr Leuten auffallen.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Ich warte weiterhin auf das nächste große Ding. Viele Treiberfunktionen sind für meine Karte schon garnicht mehr verfügbar bzw bestimmte tuningsachen nicht möglich.
Aber etwas muss sie noch durchhalten. Aktuell brennt sie bei 90 Grad in Assassins Creed Unity bei einem Grad bevor Grafikfehler rauskommen :D

Die vorgestellte Technik klingt zwar interessant, aber ich persönlich möchte einfach nicht auf Auflösung verzichten. Ich habe lieber weniger fps.

Im Vergleich zum zukünftigen Upgrade wird meine R9 390X zwar hoffnungslos veraltet sein und ich hab dann sicherlich eins der schrägsten konfigs im forum.. Aber bevor ich keine high end Karte mit mindestens 16 GB VRAM und +30-50% Leistung zur 2080ti +verbessertes RT von AMD oder nividia für weniger als 1500 Euro bekomme, werde ich keine neue Karte kaufen.
 
Hm, bei AMD und dessen Treiber gibt es wenigstens mal ein paar Neuerungen.
Der Nvidia Treiber ist seit gefühlt 2002 im Windows XP look (und Funktion) geblieben, neue Funktionen gibt es nur zur jeweils neuen Generation und dann auch zu meist nur für die neue Generation und dann auch nur 1 bis maximal 2 Features.
Hier gibts einfach so, für lau und für die alten GPUs (allgemein nicht nur auf diese News bezogen) einfach mal Neues.

Korrigiert mich, aber Treibertechnisch (ich rede von Features) ist nvidia echt recht erbärmlich...geblieben <-leider!

Das GPU Sharpenin / Scaling funktioniert unterdessen noch immer nicht für Vulkan...
 
  • Gefällt mir
Reaktionen: Charminbaer und PS828
NMir schrieb:
Kann ich eigentlich jeden nur wärmstens empfehlen. Gerade mal kurz etwas mit HL2 rumgespielt, wo Boost greift. Also das Down und Upscaling passiert wirklich so schnell, dass man davon an sich nicht viel mitbekommt. In den 10 Minuten war der worst case der, dass eine Wand schon beinahe flimmert, sowas sticht doch etwas ins Auge. Aber die meiste Zeit merkt man nicht viel davon. Das Downscaling richtet sich auch nach der Bewegungsgeschwindigkeit der Kamera. Je schneller ich mich drehe, desto weiter gehts runter, bis 50%. Wo ich selbst bei 144Hz die Unschärfe nur schwer wahrnehmen kann.

Manche Texturen wirken halt etwas griselig, als würde ein Filter falsch arbeiten. Ich muss mir jetzt mal ein DX9 Spielin meiner Biblio suchen was genug Leistung zieht.

Hier ein paar Impressionen von HL2:
hl2_2019_12_09_15_26_05_007.jpghl2_2019_12_09_15_26_09_647.jpghl2_2019_12_09_15_27_39_731.jpghl2_2019_12_09_15_27_42_002.jpghl2_2019_12_09_15_44_28_145.jpghl2_2019_12_09_15_44_30_591.jpghl2_2019_12_09_15_46_52_516.jpghl2_2019_12_09_15_46_53_856.jpg

Crysis 1 zeigt leider Bildfehler in Bewegung:
crysis_2019_12_09_16_15_52_294.jpg

Hier noch Metro in 4K. Hier sieht man auf dem Bild eine sehr schöne Unschärfe. Das Bild muss man aber aus voller Drehung machen. Sobald du die Maus anhältst ist das wieder auf 100%. Ist eigentlich auch witzig beim Stromverbrauch, der hier zwischen Idle 360W und in Bewegung auf 220W rumspringt.
Metro2033_2019_12_09_16_53_02_348.jpgMetro2033_2019_12_09_16_53_06_408.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 54698uij0, failXontour, GERmaximus und eine weitere Person
Klosteinmann schrieb:
Schönes Feature, doch ich bleibe so gefühlt auf meinen Kosten sitzen wann kommt endlich ein Update für Relive, anders wann kommt ein Update für AVCHD damit dieses nicht mehr so schrecklich aussieht bei Aufnahmen. Selbst bei 100 Mbp/s sehen die immer noch blockig aus.
AMD VCE ist allgemein ziemlich schlecht.
Habe das jetzt schon öfter mit diversen Tools/Anwendungen verwendet und es hat jedes mal enttäuscht. Nividias Encoder ist zwar etwas besser aber auch nicht das gelbe vom Ei.
Einzig Intels QuickSync ist einigermaßen brauchbar wenn man keinen Wert auf Dateigröße legt.
x264/x265 sind meiner Meinung nach momentan alternativlos wenn man qualitativ hochwertige Videos in alltagstauglicher Dateigröße aufnehmen möchte. Zum Glück gibts Zen2 CPUs :p
Ergänzung ()

r4yn3 schrieb:
Kann ich eigentlich jeden nur wärmstens empfehlen. Gerade mal kurz etwas mit HL2 rumgespielt, wo Boost greift. Also das Down und Upscaling passiert wirklich so schnell, dass man davon an sich nicht viel mitbekommt. In den 10 Minuten war der worst case der, dass eine Wand schon beinahe flimmert, sowas sticht doch etwas ins Auge. Aber die meiste Zeit merkt man nicht viel davon. Das Downscaling richtet sich auch nach der Bewegungsgeschwindigkeit der Kamera. Je schneller ich mich drehe, desto weiter gehts runter, bis 50%. Wo ich selbst bei 144Hz die Unschärfe nur schwer wahrnehmen kann.

Manche Texturen wirken halt etwas griselig, als würde ein Filter falsch arbeiten. Ich muss mir jetzt mal ein DX9 Spielin meiner Biblio suchen was genug Leistung zieht.

Hier ein paar Impressionen von HL2:
Anhang anzeigen 851277Anhang anzeigen 851278Anhang anzeigen 851279Anhang anzeigen 851280Anhang anzeigen 851281Anhang anzeigen 851282Anhang anzeigen 851283Anhang anzeigen 851284

Crysis 1 zeigt leider Bildfehler in Bewegung:
Anhang anzeigen 851285

Hier noch Metro in 4K. Hier sieht man auf dem Bild eine sehr schöne Unschärfe. Das Bild muss man aber aus voller Drehung machen. Sobald du die Maus anhältst ist das wieder auf 100%. Ist eigentlich auch witzig beim Stromverbrauch, der hier zwischen Idle 360W und in Bewegung auf 220W rumspringt.
Anhang anzeigen 851298Anhang anzeigen 851299
Die HL2 Bilder sehen aber schon arg pixelig aus
Ergänzung ()

FeldiSan schrieb:
Ohne alles jetzt im Detail gelesen zu haben muss man das Cheaten und alle Kommentare die in dieselbe kerba schlagen schon etwas belächelnd sehen.

Damals waren die Tests von Grafikkarten recht hart im Vergleich zu heute. Ich sehe kaum bis (und das ist leider die Mehrheit) überhaupt keine Tests mehr zur Bildqualität. Gerade Leute die HDR spielen habe da mit Nvidia Grakas lange nicht so eine Freude wie AMD Spieler. Es gibt tietel wo massives Colorbanding auftritt. Selbst bei nicht HDR Titeln ist das ab und zu, zu beobachten. Werden ab und zu noch anisotopie Tests gemacht? War damals Standart. Im Grunde Cheaten die hersteller immer ein bisschen (Optimieren). Gerade bei Breakpoint gehabt wo ich Windenergiekraftwerke gesehen habe und sagte Mensch das ist aber armselig das die Rotoren zu sehen sind aber die Monopyles ausgeblendet sind. Wir saßen alle im Hubschrauber und ein weitere Kollege mit einer 5700xt (ich 1080) sagte ne die sind bis aufs mehr rauf zu sehen. (Einstellungs bereinigt) Da es aber ohne weitere Erwähnung einen Treiber gab von den grünen wo aufeinmal massiv die Leistung zu genommen hat stand ausser frage.

Ich bin komplett offen für Dinge die Sachen effizienter machen. Solange ich die Wahl habe es selbstständig zu entscheiden und es mir nicht auf indoktriniert wird ist das absolut OK!

Nicht OK ist wie Nvidia damals versucht hat mit massiv getunten treibern ohne Wissen von Dritten irgendwie an ATI dran zu bleiben. Das ist schlicht beschiss und die fehlenden Monopyles zähle ich da auch zu... Die ganze game ready rotze macht mehr oder weniger genau das!

Grüsse

Wer von beiden jetzt mehr schummeln darf man sich jetzt aus malen. Denke aber das zumindest im moment die grünen nicht die Notwendigkeit hätten, was aber nicht heisst das sie nicht diesen Wege gehen würden. AMD war da immer konservativer... Damals so wie heute haben die sich nicht immer solche brocken geschossen, was nicht heisst das sie es nicht haben...

Man glaub es ja kaum es soll sogar Chiphersteller geben die massive sicherheitslücken einbauen weil sie Überhaupt nicht wissen wie sie in schneller bekommen sollen... Und wiederum ist noch mehr kaum zu glauben das Leute diese Dinger genau deshalb noch kaufen...

Grüsse
Sehe ich genauso wie du. Mir ist auch aufgefallen das Nvidia Karten sich das Mehr an Leistung auf Kosten der Bildqualität erkaufen.
Besonders stark ist es mir in StarCitizen durch die hochauflösenden Texturen und vielen Farbübergänge aufgefallen.
SC sieht auf einer Vega64 besser aus als auf einer 1080ti.
Nachteil ist leider das GCN Karten dazu neigen in einigen Szenen massive FPS Einbrüche zu erleiden.
Ob das nun Sache vom Treiber bzw. fehlende "Optimierung" oder eine Hardwareeinschränkung ist sei mal dahingestellt. Ich vermute es ist eine Mischung von beidem.
Denke das so ein VSR ähnliches Feature in der Hinsicht sicher helfen könnte wenn es intelligent genug agiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: failXontour
PS828 schrieb:
Aktuell brennt sie bei 90 Grad in Assassins Creed Unity bei einem Grad bevor Grafikfehler rauskommen
Unity ist aber auch übel, was die Forderung der Grafikkarte im Menü angeht. Wenn du da den Stadtplan öffnest, dreht die Grafikkarte sofort hoch. Ein Spiel, bei dem es sich lohn, ein Powerlimit im Wattman nur für das Spiel niedriger einzustellen. So dass das Spiel noch flüssig läuft, aber die Menüs nicht mehr überhitzen.
 
Hier für die, die es Interessiert:

Radeon Software 2020
  • New UI (now also available in-game)
  • AMD Link enhancements
    • (new ultra bitrate (50 Mbps, x265 encoding, instant GIFs)
    • Cleaner interface
    • Unified look for Radeon Software App
  • Radeon Boost
    • Faster, more fluid gaming by adjusting the resolution
    • Little to no perceptible change in image quality
    • More responsive
    • Support for 8 games at launch: Overwatch (up to 38% faster), PUBG (up to 22% faster), Borderlands 3, Shadow of the Tomb Raider, Rise of the Tomb Raider (up to 10% faster), Destiny 2, GTA5, COD WW2
    • WhyCry’s note: this feature starts automatically when your in-game character is moving. Visual quality loss is clearly visible when taking screenshots, but hardly noticeable in motion.
  • Tuning Tab
    • Custom tune your graphics card and get additional performance for your game
    • Simplified view and auto-tuning presets for notice users
    • Advanced engine, memory, voltage and fan settings for enthusiasts
    • Easily track your system performance while you game
  • Streaming Tab
    • Stream your game or desktop directly online
    • Improved stability
    • Easy to launch, configure and use directly from your game
    • Dedicated control area for streaming
    • Mixer, Twitch, Youtube support, multiple scenes etc.
  • DirectML media filters
    • Visual noise reduction and upscaling filters utilizing machine learning
  • Image Sharpening
    • Clearer details where they matter, with less than 2% impact on performance
    • Adds DX11 games
    • Control degree of sharpness
    • Toggle on/off while in game
  • Radeon Anti-lag
    • Reduces input lag, delivering quicker responses
    • Adds DX9 support for pre-RX5000 GPUs
    • Global activation
  • Integer Display Scaling
    • Gives classic games a retro, pixel-art-style look
    • Ultra-crisp scaling option for high-PPI displays
    • No-performance-cost option
  • Web Browser
    • integrated browser helps gamers get important information
    • Direct access to video tutorials
  • System status
    • Get notified if your hardware is below minimum developer game specification
    • Quickly check your AMD Link connection status
    • It’s never been easier to keep your system up to date
  • Game Center
    • Launch your games from one location regardless of store
    • Adjust Radeon Software settings on each game
    • Track gaming and performance stats
  • User profiles
    • Gaming/eSports/Standard
    • Ideal for novice users
    • One-click presets
  • Installer
    • One-Click setup with improved factory reset
    • Keep my settings between installation
    • Up to 34% faster install time
https://videocardz.com/newz/amd-announces-radeon-adrenalin-2020-edition-drivers
 
  • Gefällt mir
Reaktionen: Charminbaer, Colindo und failXontour
Frage mich ob HiAlgo überhaupt auch auf Lösungen von anderen Spielentwicklern eingeht. Die meisten Battle-Royales haben ja auch schon sowas im Peto.
-Ps-Y-cO- schrieb:
Gaming/eSports/Standard
Was ist damit den damit gemeint eSport Profil? Endlich Optimierte Profile von tatsächlichen eSport-Playern für kompetitive Spiele, oder wie ist das zu verstehen?
 
Zuletzt bearbeitet: (Satz entfernt, war Mist.)
Jesterfox schrieb:
Dann hat man halt dauerhaft die schlechtere Qualität und nicht nur dann wenn die FPS mal einbrechen sollten.

Ich stell mir das Feature vor allem für VR als hilfreich vor damit man das Maximum an Qualität rausholen kann ohne Probleme mit FPS-Einbrüchen zu bekommen (die bei VR besonders problematisch sind). Muss sich natürlich erst noch zeigen ob das tatsächlich so gut funktioniert.


hö?

also grade bei VR ist das nichts, da hast du die High-Reso direkt vorm Auge, die dann auf low umstellt? Ich weiß ja nicht.

Desktop: ok, VR eher nein....
Es sei denn du hast nen Blinzlerzähler der schon registriert hat, dass du eigentlich müde bist, dann ist es fast egal :D
 
Zurück
Oben