News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Nolag schrieb:
Ja, das Verfahren, welches Nvidia DLSS 2.0 nennt, basiert auf .... Das einzig neue ist, dass es mit den Tensor Cores in Echtzeit mit Auflösungen bis 8k funktioniert und keinen Supercomputer mehr benötigt wie vor 40 Jahren.

Siehst Du- Hier im Forum wird aber immer noch das Märchen der "wundersamen" Pixelvermehrung durch dazuerfinden der Details und "Mogeln" durch die KI verbreitet. (z.B. vom Kollegen Kacha).

Das mag bei DLSS1 noch versucht worden sein. DLSS2.0/2.1 arbeitet aber zu 99% mit tatsächlich existierenden Daten.
Keine Magie, kein künstliches "Gehirn", das dahintersitzt und rät, wie z.B. die Stufen einer Treppe aussehen oder die Details einer Textur. Nichts dergleichen. Das Snippet zur Texturbehandlung habe ich hier auch schon gepostet.
Die Tensor Cores sind ja auch nur plumpe Rechenwerke, die einfach gewisse Aufgaben sehr schnell (je ungenauer umso schneller) abarbeiten können.

Dass DLSS auch shadergestützt laufen kann, hat NVIDIA ja selbst schon mit Control (Stichwort DLSS1.9) ohne Einsatz der Tensor- Cores gezeigt. Da wurde auch nie irgendwo bestritten, dass das Verfahren auch anders laufen kann. Das wird ihnen aber (wie bei Raytracing auch) immer angedichtet.

Da wurde aber auch überhaupt kein Geheimnis draus gemacht:
Für das DLSS 1.9 in Control (der einzige Titel, der diese Umsetzung verwendet hat), lief das DLSS rein auf den Shadern. Die Tensor Cores waren hier nicht in Verwendung. Doch mit DLSS 1.9 wurden schon einige Verbesserungen versucht. Unter anderem gab es schon ein temporales Feedback.
Quelle:https://www.hardwareluxx.de/index.p...n-ai-upscaling-wie-von-anfang-an-geplant.html

Und mit meinem Ausspruch "warum da nicht schon früher einer draufgekommen ist", meine ich die praktische Umsetzung im realtime- Spielebetrieb. Dass da nachdem nvidia auf den Markt prescht ein Paper nach dem anderen in die freie Wildbahn entlassen wird, sollte ob des Potenzials der Technik nicht verwundern.

Mich nervt es einfach, dass hier im Forum zum Teil nachwievor ein Mysterium, welches irgendwelche Daten aus dem "nichts" anhand irgendwelcher vorher antrainierten Bilder zaubern würde, aus DLSS gemacht wird, gerade weil nvidia diesbezüglich in allen Bereichen sehr spendabel mit Information ist und alle Fakten auf dem Tisch liegen.
Jeder kann den UE Branch bzw. die Bibliotheken bei nvidia beantragen.

Es ist ein gejittertes, motionvektor- kompensiertes, temporal akkumulierendes Supersampling. Mit anschließendem Ai gestütztem Anti- Alias- Pass mit einer Prise secret sauce, die die Artefaktbildung im Gegensatz zu bisherigen Verfahren gut unter Kontrolle hat.
Das hat mit dem Grundbegriff eines mit starrem Algorithmus durchgeführten Upscalings (so wie es in den Köpfen verhaftet ist) nicht viel gemein. Und auch wenig mit AMDs FidelityFX CAS.

DLSS2.x ist ja auch nur die Flucht nach vorne geworden, weil das mit der ersten Version, wo sie tatsächlich einen Ansatz gewählt haben, der AI gestützt versucht Details aufgrund von trainingsdaten zu "erahnen", nicht die Ergebnisse gebracht hat, die man sich gewünscht hätte (und die man großmäulig in den Präsentationen angekündigt hat).

Egal- Die Tensor- Cores haben jetzt einen ersten für Spieler sinnvollen Einsatzzweck gefunden. Und da diese inklusive der anderen Gewerke zeitgleich eingesetzt werden können, ist das schon ein großer Schritt.

Jetzt muss nur noch die Software mit DLSS "in mind" konstruiert werden, dann kann man da auch fehlerfreie Implementationen hinbringen.

Mich ermüdet dieser Markenfetisch, der latent in jedem Thread zum Vorschein kommt.

Da wird geprügelt, gebasht, schlecht geredet, relativiert, anstatt dass man einfach mal die Füße still hält und sich darüber freut, dass jemand überhaupt in diese Richtung mit großem Geld- und Ressourceneinsatz inkl. der Prügel von enttäuschten Usern (Version 1) gegangen ist.

Kann man denn nicht einfach mal sagen, dass das gut und sinnvoll ist, was die da machen? Ganz unabhängig davon, dass der eigene Lieblingshersteller das (noch) nicht liefert?

Unnu schrieb:
@foo_1337 : Okay, danke für die Links. Dann verstehe ich das richtig, dass die ihren Algo auf ihrem Cluster trainieren, diesen dann in die Treiber packen und dort dann die Verbesserungen via den TCs stattfinden?
Genau

Und je öfter ich das Spiel spiele um so hübscher?
Wenn sie den Inferencing- Datensatz optimieren bzw. DLSS in der Funktionsweise, dann wird es hübscher.
Nicht, wenn Du es öfter spielst. Beim Spielen "lernt" Dein System nichts, sondern wendet stur die im Treiber hinterlegten Gewichtungen/Muster an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: milliardo, 5hred, ZeroStrat und 2 andere
Unnu schrieb:
@foo_1337 : Okay, danke für die Links. Dann verstehe ich das richtig, dass die ihren Algo auf ihrem Cluster trainieren, diesen dann in die Treiber packen und dort dann die Verbesserungen via den TCs stattfinden? Und je öfter ich das Spiel spiele um so hübscher?
Bis auf das letztere passt das so.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Unnu
foo_1337 schrieb:
AMD hat ein hybrides Verfahren, welches höchstwahrscheinlich nicht ganz so effizient sein wird. Den entsprechenden Auszug aus dem Patent hab ich bereits hier im Thread geposted.
Das ist noch gar nicht abzusehen! AMDs Lösung könnte genauso gut schneller sein. Bekannt ist nur, dass sie minimal Chipfläche sparen.
Du solltest dir auch nicht nur das Patent durchlesen, sondern das Ganze entsprechend einordnen und mit den RT-Grundlagen vergleichen. Glücklicherweise hat das schonmal jemand für dich gemacht https://www.computerbase.de/2020-04/raytracing-in-spielen-gpu-beschleunigung/
 
  • Gefällt mir
Reaktionen: Iscaran
Colindo schrieb:
Das ist noch gar nicht abzusehen! AMDs Lösung könnte genauso gut schneller sein. Bekannt ist nur, dass sie minimal Chipfläche sparen.
Du solltest dir auch nicht nur das Patent durchlesen, sondern das Ganze entsprechend einordnen und mit den RT-Grundlagen vergleichen. Glücklicherweise hat das schonmal jemand für dich gemacht https://www.computerbase.de/2020-04/raytracing-in-spielen-gpu-beschleunigung/
In diesem Artikel steht nichts, was uns hier weiter bringt, zumal sich der Spekulatius mit der Xbox bereits geklärt hat. Danke, den kenne ich bereits.
Sie sparen Chipfläche, aber der Shader hat vermutlich auch mehr Arbeit damit.
Ich habe auch höchstwahrscheinlich geschrieben, weil dies meine Interpretation ist. Die Entwickler sind jedenfalls von den Konsolen bislang eher enttäuscht, was RTRT betrifft. Daher: Es bleibt spannend.
 
foo_1337 schrieb:
Hab ich mich wirklich so mißverständlich ausgedrückt?
Ja denn du mischt wieder Äpfel und Birnen

Wenn ja, versuche ich es nochmal:
Ich unterstelle AMD einfach mal eine ähnliche Performance wie der 3080. Ist nicht ganz unrealistisch, denke ich,
Wenn man nun Control nimmt:

3080 mit 4k/rt nativ: 29fps
3080 mit 4k/rt und DLSS Quality: 54 fps

OK - nur was hat DLSS mit RT zu tun ?!?

Da AMD kein DLSS nutzen kann, wird die 4k/RT performance vermutlich auch bei den 29fps liegen. Der 3080 Spieler kann jedoch, dank DLSS, mit 54fps spielen.
Ergänzung ()
AMD kann DLSS-äquivalentes FidFX nehmen - gut von mir aus ist die BQ dann nur 99% so gut wie die mit DLSS, aber glaubst du wirklich, daß das jemanden juckt wenn da 5 Pixel auf dem 62" TV-Screen in 5m entfernung "weniger gut aussehen" ?

AMD hat ein hybrides Verfahren, welches höchstwahrscheinlich nicht ganz so effizient sein wird. Den entsprechenden Auszug aus dem Patent hab ich bereits hier im Thread geposted.
Niemand hat eine Ahnung wie das läuft und das Patent ist nur EINE Möglichkeit es zu realisieren.

Reine Spekulation deinerseits also und außerdem ein Äpfel/Birnen vergleich.
Ergänzung ()

Unnu schrieb:
@foo_1337 : Und je öfter ich das Spiel spiele um so hübscher?
Nein - das bleibt immer gleich da das "Training" ja abgeschlossen ist und nur das Endergebnis in den Treiber gepackt wird.
 
  • Gefällt mir
Reaktionen: Unnu
Iscaran schrieb:
AMD kann DLSS-äquivalentes FidFX nehmen - gut von mir aus ist die BQ dann nur 99% so gut wie die mit DLSS, aber glaubst du wirklich, daß das jemanden juckt wenn da 5 Pixel auf dem 62" TV-Screen in 5m entfernung "weniger gut aussehen" ?
Ja- Genau das wird gemacht. Bei DLSS und RTRT wird von vielen Usern JEDES Pixel seziert. Auch wenn es um die Auflösung geht. Sitzt da nur ein Pixel in einer Reflexion falsch, geht der Shitstorm los und die Technik wird zerrissen.
Ob da Screenspace- Reflections flimmern, oder erst garnicht sichtbar sind aufgrund des Blickwinkels ist im Gegenzug aber wieder wohl völlig egal.

Es wird von "nativer" Qualität gesprochen und alles andere ist Müll. Schau Dir den 8K Performance Modus von DLSS an und wie der zerrissen wird, weil er nicht an die native 8K Qualität heranreicht, sondern ein Mittelding aus 4 und 8K ist und auf 8K "nur" eine Performance von 40-60FPS verspricht.
Die Leute drehen mit ihren Ansprüchen völlig ab! Wollen im Gegenzug dazu aber geringere Preise, weniger Energieverbrauch usw. usf.
Anspruch und Wirklichkeit klaffen in den Köpfen vieler immer weiter auseinander.

Und FidFX hat wie bereits oben ausgeführt so gut wie nichts gemein mit DLSS2.x. Denn dort wird die Leistung zwangsweise und grundsätzlich mit einer schlechteren Bildqualität und Artefakten erkauft.

Bei DLSS muss man diese Kompromisse nicht zwangsweise eingehen und hat trotzdem noch ein hohes Potenzial auf Perfomancesteigerungen.
 
Zuletzt bearbeitet:
@Iscaran nein, ich mische keine Äpfel mit Birnen. Es ist nunmal tatsache, dass die 2020er Grafikgartengenerartion nicht in der Lage ist, RTRT@4k in adäquaten Frameraten darzustellen. Daher ist DLSS Pflicht. Und da liegt eben nvidia vorn. Ob man das nun wahr haben will, oder nicht.
 
foo_1337 schrieb:
@Iscaran nein, ich mische keine Äpfel mit Birnen. Es ist nunmal tatsache, dass die 2020er Grafikgartengenerartion nicht in der Lage ist, RTRT@4k in adäquaten Frameraten darzustellen. Daher ist DLSS Pflicht. Und da liegt eben nvidia vorn. Ob man das nun wahr haben will, oder nicht.

RT != DLSS und DLSS != Fidelity FX UND Fidelity FX != RT

Welchen Leistungssteigerer man für RT und ob überhaupt einsetzt ist also erstmal zweitranging.
Du kannst ja gern dein DLSS weiterpromoten - aber RT hat erstmal NIX mit DLSS zu tun.

RT ist Ray Tracing und damit eine Technik WIE ich ein Bild erzeuge.

DLSS wie auch FFX sind Upscaling-Techniken. D.h. eine Technik die aus einem weniger hochaufgelösten Bild mittels "Technik" ein höher aufgelöstes Bild bestmöglich nachzustellen bzw. abzubilden versucht.
Dies führt natürlich automatisch dazu, daß man mehr Performance erhält.

Ob DLSS nun besser oder schlechter ist als FFX hab ich an der Stelle noch gar nicht diskutiert - ich bemängele eben nur, daß du DLSS mit RT gleichsetzt und GLEICHZEITIG auch noch über noch nicht veröffentlichte Architekturen spekulierst als ob es Fakten wären.

Ist mir egal ob du DLSS für besser als FFX hälts oder nicht. Es hat mit RT eben erstmal nix zu tun.
Ergänzung ()

.Sentinel. schrieb:
...
Es wird von "nativer" Qualität gesprochen und alles andere ist Müll. Schau Dir den 8K Performance Modus von DLSS an und wie der zerrissen wird, weil er nicht an die native 8K Qualität heranreicht, sondern ein Mittelding aus 4 und 8K ist und auf 8K "nur" eine Performance von 40-60FPS verspricht.
Die Leute drehen mit ihren Ansprüchen völlig ab! Wollen im Gegenzug dazu aber geringere Preise, weniger Energieverbrauch usw. usf.
Anspruch und Wirklichkeit klaffen in den Köpfen vieler immer weiter auseinander.

Und FidFX hat wie bereits oben ausgeführt so gut wie nichts gemein mit DLSS2.x. Denn dort wird die Leistung zwangsweise und grundsätzlich mit einer schlechteren Bildqualität und Artefakten erkauft.

Bei DLSS muss man diese Kompromisse nicht zwangsweise eingehen und hat trotzdem noch ein hohes Potenzial auf Perfomancesteigerungen.

Du schreibst vieles richtig. Insbesondere im oberen Absatz. Aber UNTEN drehst du auch völlig ab.

FidFX mag ja tatsächlich im Detail schlechter aussehen als DLSS2.x - aber die END-Resultate sind sich SEHR ähnlich sonst würden wir diese Diskussion und diese Pixelzählerei in den Reviews gar nicht betreiben.

D.h. für den Endanwender - wenn es also darauf ankommt ob er 4k RT fahren will mit 60 FPS, wird es NAHEZU egal sein ob er dafür DLSS2.x magics nimmt oder FFX magics...in 3m Sicht-Abstand vom Bild sind die unterschiede "nil".

EDIT: Das ist in etwa genauso sinnvoll wie die Diskussion um G-Sync kann aber bis 24HZ, FreeSync nur bis 30 Hz gut syncen....etc.

Ja - es gibt da unterschiede im Detail - aber für die Grundlegende Funktionalität und den Bedarf den man hat, da geht das daran vorbei. /EDIT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Iscaran schrieb:
Du schreibst vieles richtig. Insbesondere im oberen Absatz. Aber UNTEN drehst du auch völlig ab.
Das was ich unten schreibe ist im Zusammenhang angelehnt an meine Kritik, die ich im oberen Teil äußere.
Ich führe also keinen Postionswechsel durch sondern setze das ins Verhältnis zu den Ansprüchen entsprechender User.

Ich bin ja der größte Befürworter davon, dass die Leute aufhören sollten den Spielspaß nur über Lupe und Pixelcounting zu definieren. Es reicht im Normalfall IMMER ein "gut genug".
Manchmal habe ich das Gefühl, dass die Leute ohne Afterburner im Overlay überhaupt nicht mehr fähig sind zu spielen, weil ja irgendwo mal ein Frame eine minimale Pacing- Abweichung haben könnte.

Spiele werden inzwischen viel zu technisch gesehen. Und viele verderben sich den Spielspaß dadurch, sich grundsätzliche technische Kategorien zu schaffen, ab wann ein Spiel keinen Spaß mehr zu machen hat.

FidFX mag ja tatsächlich im Detail schlechter aussehen als DLSS2.x - aber die END-Resultate sind sich SEHR ähnlich sonst würden wir diese Diskussion und diese Pixelzählerei in den Reviews gar nicht betreiben.
Wie gesagt- Wenn die User schon über das Ergebnis eines DLSS herziehen und als Müll bezeichnen, dann weisst Du, wo sich ein ein FidFX einordnet, welches feine Details verschluckt und in Bewegung deutlich zum Kantenflimmern neigt.

EDIT: Das ist in etwa genauso sinnvoll wie die Diskussion um G-Sync kann aber bis 24HZ, FreeSync nur bis 30 Hz gut syncen....etc.
Genau so ist es.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, foo_1337, Unnu und eine weitere Person
Zum letzten mal: Natürlich hat RTRT erstmal mit DLSS nix zu tun. Aber es sorgt dafür, dass RTRT bei vernünftigen Frameraten möglich ist.
 
Che-Tah schrieb:
Man könnt’s zwar selber googeln, aber gut... 1.600€
nun, aktuelle preise stehen schon im preisvergleich. das klärt dann aber nicht mein interesse, was wirklich beim kauf - liegt ja meist ein paar tage zurück - gezahlt wurde.
 
foo_1337 schrieb:
Ich habe auch höchstwahrscheinlich geschrieben, weil dies meine Interpretation ist. Die Entwickler sind jedenfalls von den Konsolen bislang eher enttäuscht, was RTRT betrifft. Daher: Es bleibt spannend.
https://videocardz.com/newz/amd-radeon-rx-6800xt-alleged-3dmark-scores-hit-the-web
Meine Vermutung zum AMD RT scheint zu passen. Die anderen Werte der XT/XTX sind jedoch tatsächlich beeindruckend. Auch wenn 3DMark jetzt nicht gerade DIE Referenz sein wird für Gamer ;)
 
Das wäre doch nicht schlecht falls die Werte stimmen. 3080 FE Performance, aber nur RT Performance der 2080Ti. Nicht schlecht, aber das macht die Wahl der neuen GPU nicht einfacher. Da muss man sich überlegen wie viel Wert man auf RT setzt. Am Ende wirds auf den Preis ankommen.

Ich überlege auf 4K zu gehen, aber dann noch RT dazu und man ist wieder ruck zuck am Limit der Technik von heute. Doch lieber bei 1440p bleiben und die extra FPS genießen? Bin sehr unschlüssig.
 
Also ich bleib ganz klar vorerst bei WQHD.

UHD ist und bleibt vorerst eher nicht so optimal befeuerbar, auch wenns
schon seit vielen Jahren Bildschirme dafür gibt.

Nochmal zu DLSS, also erstens ist die Verbreitung doch sehr bescheiden.
Und zweitens, wenn MS oder AMD ihren AI Upscaling Ansatz bringen
werden wird das natürlich DX konform und DLSS ist schon wieder tot,
bevors überhaupt ordentlich verbreitet ist.

Weiterhin RT und DLSS brauchen natürlich auch extra VRAM und da
sind 10GB mit 4K (oder Upscaling mit 4K als Basis) doch verflucht wenig.


Die Zahlen der 6800XT bei Igor klingen auch gut.
Wenn man bedenkt, dass das nicht die grösste Karte ist.
 
Zurück
Oben