News AMD Radeon Super Resolution: Upscaling auf Basis von FSR 1.0 für alle Spiele

ThePlayer schrieb:
Aber ist es nicht so das es bisher bei jedem Spiel was DLSS nutzt immer irgendein Bildfehler gab. Zumindest ist es das was ich hier auf CB aus den Tests bei Games die DLSS nutzen rauslese.
Gerade zu Anfangszeiten habe ich DLSS ausgiebigst in so gut wie allen erhältlichen Titeln analysiert.
Als referenz- Titel kann in meinen Augen die letztlich verfügbare Version von Wolfenstein Youngblood dienen.
Aber auch ein Deliver us the Moon liefert technisch ab.

Ansonsten hast Du recht. Derzeit schafft es sonst kein Titel die technischen Möglichkeiten von DLSS sauber umzusetzen. Im Gegenteil- Manchmal habe ich das Gefühl man integriert das als Checkbox- Feature ohne Rücksicht auf das Ergebnis.
Das ist extrem schade, da DLSS seit der Version 2.0 sehr konsequent weiterentwickelt wurde. Die Titel müssten die Möglichkeiten nur entsprechend nutzen....

ThePlayer schrieb:
Mal ist die Implementierung besser Mal schlechter aber perfekt war es bisher noch nie.
Siehe oben- Recht viel besser als bei Wolfenstein muss es nicht werden.

ThePlayer schrieb:
Dazu kommt der Punkt das wir ja wissen wie das so bei Games mittlerweile läuft. Wer schön mit Geld und Support beim Entwickler hilft bekommt dann auch die besseren FPS auf seinen Grafikkarten.
Ist die Produktion groß genug, stellen sowohl AMD als auch NVIDIA Entwickler ab, die einem für Optimierungen unter die Arme greifen. Das Treiber- Team erledigt dann den Rest.

ThePlayer schrieb:
Und Nvidia wird doch alles tun um AMD/INTEL jeden stein den sie finden können in den Weg zu legen.
Deswegen finde ich diesen erneuten Proprietären Ansatz von Nvidia zum kotzen.
Auf welchen nicht- proprietären Ansatz hätten sie denn gehen sollen? Welche andere Hardware liefert ein Tensor- Core- Derivat? Auf welche offenen Schnittstellen hätten sie denn gehen können?
Welchen frei zugängliche Technik bzw. welchen ausgereiften inferencing- Datensatz hätte man zugreifbar machen sollen?

Genau- Deswegen.... Kotzen kannst Du eher, weil die anderen Firmen ihre eigene Innovation nicht in diese Richtung treiben. NVIDIA muss da noch nicht mal irgendwelche Steine in den Weg legen, da AMD diesbezüglich auch noch bis heute im Tiefschlaf liegt.
Die Schnittstellen, die DLSS nutzt, sind bereits jetzt auch für alle anderen Hersteller nutzbar.
Aufgrund des modularen Ansatzes von NVIDIA müssten die Hersteller noch nichtmal eigens Änderungen an der Software vornehmen. Sie müssten nur die proxy- Bibliothek der Titel, die DLSS unterstützen austauschen/erweitern.

Bei Intel kann ich es verstehen, dass die erst jetzt anfangen in die Pötte zu kommen.
Aber bei AMD.... Wie lange gibt es DLSS und wie lange weiss AMD was ihnen damit blühen kann?
Die RTX Serie ist seit 3! Jahren auf dem Markt und AMD blickt diesbezüglich nachwievor wie das Kaninchen auf die Schlange.
Da erscheint es mir etwas merkwürdig, da noch einen Vorwurf an NVIDIA formulieren zu wollen.
Hätten sie DLSS nicht entwickeln sollen? Hätten Sie AMD und INTEL das RTX Design "schenken" sollen?

ThePlayer schrieb:
Auch wenn DLSS irgendwann vielleicht perfekt funktionieren wird.
Ich würde es super finden wenn sich da AMD/INTEL zusammen tun und eine offene Lösung die DLSS ebenbürtig ist bringen. Und Nvidia quasi wie bei Freesync und GSync dann einknickt.
Dazu müssen sie erstmal die Hardware liefern, die das kann und die 3 Jahre Vorsprung, die NVIDIA bezüglich dieser Technik hat aufholen bzw. finanzieren.

ThePlayer schrieb:
Aber zurück zum Thema als ich Überschrift gelesen habe, dachte ich es gibt eine neue Version von FSR. Schade.
FSR ist ausgereizt. FSR ist ein Mix aus lang etablierten Techniken. AMD müsste jetzt den nächsten Schritt gehen, den sie aufgrund der Hardwareeinschränkungen aber nicht "so einfach" gehen können.

Dennoch- Die Firmen achten natürlich darauf konkurenzfähig zu sein/zu bleiben. Insofern steht es fest, dass auch AMD/Intel mit einer echten DLSS Alternative ums Eck kommen müssen.
Sonst kommen sie unter die Räder. Den Effizienzunterschied holen sie durch "more of the same" nicht auf.
 
Zuletzt bearbeitet: (Rechtschreibung)
.Sentinel. schrieb:
Dennoch- Die Firmen achten natürlich darauf konkurenzfähig zu sein/zu bleiben. Insofern steht es fest, dass auch AMD/Intel mit einer echten DLSS Alternative ums Eck kommen müssen.
Sonst kommen sie unter die Räder.
Genau ,langfristig hast du natürlich recht.Noch reicht die rohe Power und andere Vorzüge wie besserer Preis bei mehr Vram aus um nicht nur konkurrenzfähig zu sein sondern insgesamt objektiv oft das bessere Produkt zu liefern.

In Zukunft wird sich AMD und auch Intel mehr ins Zeug legen müssen wenn RT&DLSS mehr an Bedeutung bekommen und eventuell leistungstechnisch sogar (ge-)nötig(t) werden.Zum Glück aller Gamer steigt ein Schwergewicht wie Intel ins Business was die Kräfteverteilung/den Einfluss auf Studios ein bisschen ausgleichen dürfte.
 
  • Gefällt mir
Reaktionen: Maxxx800
Tornavida schrieb:
Genau ,langfristig hast du natürlich recht.Noch reicht die rohe Power und andere Vorzüge wie besserer Preis bei mehr Vram aus um nicht nur konkurrenzfähig zu sein sondern insgesamt objektiv oft das bessere Produkt zu liefern.
Die Problematik derzeit ist, dass es nicht "das bessere Produkt" gibt.
Da die Auslegung der Hardware andere Ansätze verfolgt.
Daher ist auch der Ausdruck "rohe Power" irreführend. Rohe Power worin?

Früher konntest Du zwei Karten einstecken, und nen Titel benchmarken und das Ergebnis vergleichen.
Durch den Technologiewechsel kann es sein, dass die eigene Karte Featureset XY eines Spiels YZ garnicht verarbeiten kann. Noch dazu, dass die unterschiedlichen Featuresets in Spielen dann auch mal 100% und mehr Performanceunterschied bedeuten kann.

Ist ja toll, wenn ich mit meiner AMD Karte 16GB VRAM habe und es im Rasterizing in niedrigen Auflösungen leichte Vorteile bietet.

Nützt mir nur nichts, wenn ich z.B. Metro Exodus Enhanced mit max. Einstellungen spielen will.
Da legt die Konkurrenz in 4K erstmal grundsätzlich 40% höhere Leistung hin und legt mit DLSS dann nochmal in höchter Qualitätsstufe darauf zusätzlich 50% drauf und auf Performance getrimmt sogar 87%.

Das sind mal locker 2 Generationen, die man dann in der Leistung zurückliegt. Oder anders ausgedrückt 34 FPS gegen 71 FPS im Qualitätsmodus oder 89 FPS im Performancemodus.
Das sind Welten. Und letztendlich interessiert es den normalen User nicht, warum und wieso dieser Geschwindigkeitsunterschied besteht. Er greift zum schnelleren Produkt.

Tornavida schrieb:
In Zukunft wird sich AMD und auch Intel mehr ins Zeug legen müssen wenn RT&DLSS mehr an Bedeutung bekommen und eventuell leistungstechnisch sogar (ge-)nötig(t) werden.Zum Glück aller Gamer steigt ein Schwergewicht wie Intel ins Business was die Kräfteverteilung/den Einfluss auf Studios ein bisschen ausgleichen dürfte.
Das ist auch meine Hoffnung. Aber wie gesagt- AMD hat gerade viel Traktion.
Es wäre schade, wenn die weiterhin nicht in die Pötte kommen und sich wegen dem Verschlafen einer Entwicklung ihre eigenen wirklich guten Produkte wieder in den Schatten stellen.
 
Zuletzt bearbeitet:
Im moment ist es doch komplett egal was die alles Entwickeln (Hardwareseitig), für die meisten die etwas zocken wollen ist alles über den langsamsten Karten zu teuer und nur schwer zu rechtfertigen da so unmengen an Geld reinzustecken.

Klar gibt es einen gewissen Anteil an Kunden denen der Preis egal ist, ob nun Preiswert oder Mondpreise.

Edit:
ich will auch nicht die ausgelutschte Hardware von anderen kaufen, die mir dann nach 2 Monaten um die Ohren fliegt...
 
Ich hoffe das es auf kurz oder lang eine Vulkan Integrierung (ki Upscaling) gibt wo Hersteller unabhängig dies unterstützt wird. Ob sowas möglich ist, keine Ahnung. Aber besser währe es.
 
  • Gefällt mir
Reaktionen: Czk666
Soweit ich weiß muss doch bis jetzt so eine KI Hochskalierung immer mit einem Spiel Trainiert werden, damit das vernünftig funktioniert. Also Herstellerunabhängig mag sein das es das mal irgendwann geben kann aber das wird aus dem Grund wohl immer nur Pro Spiel integriert sein und nicht als Aufflanschoption für alles verfügbar.

Klar so hat KI Upscaling seinen nutzen / Einsatzgebiet, bedeutet aber automatisch mit der Prämisse einen höheren Kostenaufwand als die Verwendung von den einfacheren Varianten wie sie AMD und Nvidia ja nun auch beide als Totschlagoption anbieten.

Da die Großen Publisher/Studios ja sowieso schon immer jammern, das sie mehr Geld aus den Kunden herausquetschen wollen und das über microtransaktionen und pay to win massiv betrieben wird scheint ein mehraufwand für so ein feature eher kontraproduktiv zu sein, es sei denn! wenn dadurch entsprechend dem Geldwert nach viel Optimierungsaufwand/Mannstunden gespart werden können.

Das ist natürlich auch eine Perspektive, das die Entwickler sich ein Spiel dann Wunderschön hinklatschen, alles fertig machen inklusive Story und dufte grafik und dann die KI ein wenig an der "Optimierung" arbeiten lassen anstatt da viele Mannstunden reinzustecken :-)

Für die Kunden die das Feature 'IN Hardware' noch nicht gekauft haben ist das dann schade :D
aber bei den aktuellen Marktanteilen könnte sich das noch rechnen.. würde aber auch ein wenig dazu führen, das sich dann die Anteile so Zementieren oder noch deutlicher ausprägen.

__
Hab schon wieder viel zu viel geschrieben :freak:
 
Northstar2710 schrieb:
Ich hoffe das es auf kurz oder lang eine Vulkan Integrierung (ki Upscaling) gibt wo Hersteller unabhängig dies unterstützt wird. Ob sowas möglich ist, keine Ahnung. Aber besser währe es.
Hier wird was durcheinandergeworfen. Vulkan+DX12 sind APIs, worauf die dahinterliegende Software/der Treiber aufsetzt.

Es gibt ja auch nicht "DEN TAA" Standard, "DIE SSAO" Integration oder sonstiges als Standard innerhalb der Schnittstellen. Das hat da ja auch garnichts zu suchen. Man bietet mit den APIs ja nur eine Abstraktion zwischen Treiber und OS an.

Alle anderen Angelegenheiten sind Engine- getrieben. Und da hat schon immer jeder sein eigenes Süppchen gekocht.
Ergänzung ()

Alexander2 schrieb:
Soweit ich weiß muss doch bis jetzt so eine KI Hochskalierung immer mit einem Spiel Trainiert werden, damit das vernünftig funktioniert.
Ist nicht mehr so.
Alexander2 schrieb:
Also Herstellerunabhängig mag sein das es das mal irgendwann geben kann aber das wird aus dem Grund wohl immer nur Pro Spiel integriert sein und nicht als Aufflanschoption für alles verfügbar.
Ist aber inzwischen so.
Alexander2 schrieb:
Klar so hat KI Upscaling seinen nutzen / Einsatzgebiet, bedeutet aber automatisch mit der Prämisse einen höheren Kostenaufwand als die Verwendung von den einfacheren Varianten wie sie AMD und Nvidia ja nun auch beide als Totschlagoption anbieten.
Siehe oben- Da der Ansatz inzwischen universal ist, gibt es keinen erhöhten Aufwand. Um die 100 Titel unterstützen DLSS deshalb inzwischen.
Alexander2 schrieb:
Da die Großen Publisher/Studios ja sowieso schon immer jammern, das sie mehr Geld aus den Kunden herausquetschen wollen und das über microtransaktionen und pay to win massiv betrieben wird scheint ein mehraufwand für so ein feature eher kontraproduktiv zu sein, es sei denn! wenn dadurch entsprechend dem Geldwert nach viel Optimierungsaufwand/Mannstunden gespart werden können.
Das ist meine Befürchtung. Performance bekommt man geschenkt, also muss man nicht mehr so sparsam damit umgehen.
 
  • Gefällt mir
Reaktionen: Alexander2
Andererseits täten die Studios gut dran den Zugewinn an Performance nicht zu verschenken. Früher oder später wird sich die Knappheit an Karten doch auch an den Verkaufszahlen der Spiele zeigen müssen. Umso länger ältere Karten mithalten können, dank dlss und co umso besser müsste es sich dann auf die Verkaufszahlen auswirken. Die Knappheit zieht doch einen Rattenschwanz hinter sich her. Die ganzen Zeitschriften, Studios, ... muss doch langsam der Arsch auf grundeis gehen?
 
Wenn ich jetzt mal "den Kamm" Die Tech Youtuber benutze, dann ist das so, die merken das schon/haben das schon bemerkt. der Absatz der Videos zu mangelnd verfügbarer Hardware ist zurückgegangen.

Wo keine Aussicht besteht, das man eine Ware zu einem in seinen Augen vernünftigen Preis bekommt hält ja schließlich einfach viele potenzielle Kunden schon alleine davon ab sich um neue Ware zu Informieren. Man kann seine Zeit dann ja so gesehen sinnvoller verbringen und sich dann auch potenzielle Aufreger direkt sparen :D

Ich muss sagen ich Persönlich schaue mir trotzdem einiges an Hardwarevideos an. es werden aber wohl durchaus auch schon einfach weniger davon gemacht, weil ja die Ersteller sich auch umsehen was mehr Einnahmen/Zuschauer bringt. Es geht ihnen ja auch um die Butter und das Brot sich damit zu verdienen.

Edit:
Und was die Publisher und Spieleentwickler angeht haben eine großzahl von ihnen ohnehin schon immer darauf geachtet, das man die Software an die breite Masse verkaufen kann, also entsprechend in den Grafikoptionen die breit verfügbare/vorhandene Hardware berücksichtigt bei der Entwicklung/Optimierung
 
.Sentinel. schrieb:
Das ist auch meine Hoffnung. Aber wie gesagt- AMD hat gerade viel Traktion.
Es wäre schade, wenn die weiterhin nicht in die Pötte kommen und sich wegen dem Verschlafen einer Entwicklung ihre eigenen wirklich guten Produkte wieder in den Schatten stellen.
Hört sich generell etwas negativ an aber vielleicht missverstehe ich auch etwas wie du vielleicht auch als ich "bessere" Produkte schrieb.
Ich denke nicht,dass das Alles für diese Gen mit Hinblick auf die Zukunft eine grosse Relevanz hat ,und sicher eine Technik wie DLSS zu haben ist besser als es nicht zu haben (oder eine qualitativ schlechtere Alternative) und ebenso wird Etwas auf einer Plattform (deutlich) besser laufen als auf der Anderen und umgekehrt.
Was Features angeht hat NV die Nase vorn,das braucht keine Diskussion,jedoch sollte man P/L nicht gänzlich aus dem Auge verlieren.
In Relation was heutige Spiele bieten und Anforderungen stellen und was uns in Zukunft mit neuronalen Netzen in Verbindung mit VR erwartet würde ich mich soweit aus dem Fenster lehnen,dass die AMD Technik/Performance auch ohne DLSS Technik bis dahin ausreichend sein wird. Unter Einbeziehung der deutlich (realen) höheren Kosten bei NV für eine vollwertige Karte (kein LHR/genug VRAM/gute Effizienz und somit Langzeitnutzen) stehen die AMD Produkte nicht schlecht da. RT ist praktisch die einzige Achillesverse von RDNA2 im Vergleich wo die Leistung und Qualität abfällt auch wenn Diese seit Release fairerweise angemerkt zugelegt hat und in brauchbare Regionen angekommen ist wenn 4k nicht als Referenz herangezogen wird.Bei nativen Auflösungen ohne RT steht man eh gut da im Lineup.
Zugegeben zieht das Argument für AMD mit günstigeren Kosten immer weniger wo schon die 6700xt bei 900+ angekommen ist.Auch ich würde mich bei gleichem oder realistisch und gerechtfertigt etwas höherem Preis für eine 3090 statt einer 6900xt entscheiden,keine Frage,das sehe ich selbst bei einer 3080ti so.Aber der Markt verlangt gut 1000,- mehr momentan für eine 3090 und das sehe ich ehrlich gesagt nicht,dass diese Mehrkosten für einen Gamer gut angelegt sind,da in (nicht allzu ferner) Zukunft deutlich mehr Leistung nötig sein wird wo es dann praktisch egal ist welche "alte" Karte man besitzt.Was für eine Bedeutung werden heutige Karten zu einer Zeit mit mixed virtual Reality haben?Erfreue ich mich dann tatsächlich an meiner 2,5k Karte,dass ich alte Schinken in RT&DLSS zocke?Ich habe meine eigene 3090 verkauft,da m.E. die Bereitschaft derartige Summen zu bezahlen unter Gamern verschwindend gering ist. Ein Fehler?Vielleicht,aber ich kann gut Damit leben und darauf kommt es ja bei jedem an.Die 3080ti verliert m.E. auf lange Sicht wegen LHR was den Wiederverkaufswert zusätzlich zu den realen Mehrkosten drücken wird.Denn auch die Miningleistung in Verbindung mit dem Verbrauch wird so wie es aussieht in Zukunft eine grössere Rolle spielen.Letzten Endes hängt Vieles von P/L und dem eigenen Anspruch/Geldbeutel ab und es wird interessant zu sehen wo Intel sich hier einordnet und Progression zeigen wird.
 
Schinken42 schrieb:
Oo. Kann man doch. Zumindest kann ich auf meinem 4K TV per bspw. 8K als Auflösung einstellen und dann FSR aktivieren. Intern wird dann (je nach Modus) bspw. in 4K gerendert. Ausgehend von native 4k ist das also genau, was du beschreibst.
Guten Abend Schinken.
Kannst du mir erklären wie du das machst?
Ich nutze NV Hardware 1080 Treiber 496.76 auf einer nativen 21:9 3440x1440 Auflösung und würde auch gerne auf 4k bzw. 8k skalieren wollen.

Ich würde mir das gerne mal anschauen. :-)

Ich sehe auf Youtube zum Beispiel immer krank hochauflösende 4k Hell Let Loose Videos, die verdammt gut aussehen.

Ich optimiere schon seit einiger Zeit meine Settings hin und her, bekomme es aber nicht so richtig dass es wie in den Video ausschaut.

Außerdem möchte ich persönlich auch meine Video Qualität damit optimieren wollen.

Danke schonmal im Voraus und guten Rutsch. 🥳🥂
 
Creeper777 schrieb:
Guten Abend Schinken.
Kannst du mir erklären wie du das machst?
Ich nutze NV Hardware 1080 Treiber 496.76 auf einer nativen 21:9 3440x1440 Auflösung und würde auch gerne auf 4k bzw. 8k skalieren wollen.

Ich würde mir das gerne mal anschauen. :-)

Ich sehe auf Youtube zum Beispiel immer krank hochauflösende 4k Hell Let Loose Videos, die verdammt gut aussehen.

Ich optimiere schon seit einiger Zeit meine Settings hin und her, bekomme es aber nicht so richtig dass es wie in den Video ausschaut.

Außerdem möchte ich persönlich auch meine Video Qualität damit optimieren wollen.

Danke schonmal im Voraus und guten Rutsch. 🥳🥂
Hallo und frohes Neues.

Ich habs oben schonmal etwas genauer beschrieben aber gern nochmal in Kürze für NV:
  • im Treiber DSR aktivieren, also Downsampling um höhere Auflösungen als nativ nutzen zu können
  • im Spiel die gewünschte Auflösung > nativ einstellen
  • NIS oder ins Spiel integriertes FSR nutzen (man findet im Netz die Umrechnu gsfaktoren, also stell am besten den Qualitätsmodus ein, der intern mit deiner nativen Auflösung rendert


War das verständlich soweit?
 
Kann man denn gleichzeitig dann auch die Bilder nachschärfen?
NIS soll das ja können - Habs mal aufm Laptop getestet, mit freiem Auge sieht alles "OK" aus. ^^

Mein Desktop soll ne RX bekommen, deshalb die Frage.
Bin gespannt ob das Ganze gut funktioniert .. Wäre für Titel für Cyberpunk brauchbar auf ner AMD.
 
Tornavida schrieb:
Was Features angeht hat NV die Nase vorn,das braucht keine Diskussion,jedoch sollte man P/L nicht gänzlich aus dem Auge verlieren.
Stimme ich Dir völlig zu. Aber wenn selbst eine olle RTX 2060, die lange Zeit schon für um die 300€ zu haben war (derzeit für um die 350€) DLSS/RT beherrscht und dadurch z.B. bei Metro Exodus Enhanced mit RT und DLSS die Performance einer 6800XT (derzeit um die 1400€) erreicht, dann bekommt die Preis/Leistung eben ziemlich Schlagseite.

Zum Erscheinen von DLSS konnte man sich noch darauf berufen, dass es irrelevant sei, weil fast keine Titel die Technik unterstützen. Das Verhältnis ist gekippt und es gibt mehr neu erscheinende Titel (selbst im Indie- Sektor) die das Feature mitbringen, als welche ohne.

Tornavida schrieb:
In Relation was heutige Spiele bieten und Anforderungen stellen und was uns in Zukunft mit neuronalen Netzen in Verbindung mit VR erwartet würde ich mich soweit aus dem Fenster lehnen,dass die AMD Technik/Performance auch ohne DLSS Technik bis dahin ausreichend sein wird.
Seit ich denken kann, war die Performance noch nie ausreichend, um nicht von den Entwicklern gleich wieder gewinnbringend für visuelle Qualität in Anspruch genommen zu werden.
Zudem wäre es geradezu fahrlässig, die Softwareseite zu vernachlässigen im Vertrauen darauf, dass die aufgrund physikalischer Grenzen stagnierende Hardwareentwicklung den Mangel an Effizienz durch pure Power wieder ausgleichen würde.

Zumal das in Sachen Kosten/Nutzen/Ökologie garkeinen Sinn ergeben würde, wenn es dazu inzwischen eine Alternative gibt.

Keiner würde heutzutage noch auf die Idee kommen, mit unkomprimierten Videos zu arbeiten oder unkomprimierter Musik (analog zur Rohleistung). Ob lossless oder nicht sei mal dahingestellt.

Ein Video verbraucht ohne Softwaretricks und Effizienzsteigerung pro Minute in 4K und 8! Bit (normalerweise sinds 24 Bit und mehr) bei 24Bildern pro Sekunde 200Megabyte. Pro Stunde wären das umgerechnet 720Gigabyte.

Einen HEVC 4K Datenstrom die sich nicht bis kaum von der RAW- Qualität unterscheidet, sinds noch 11 Gigabyte (und das mit 24Bit Farbtiefe).

Analog zu Deinem Beispiel bin ich extrem froh, dass die Software mit minimalen bis keinen Qualitätseinbußen dafür sorgt, dass man solche Auflösungen und Speichermengen für Videos überhaupt erst handlebar machen kann/konnte und es damit möglich ist schon seit Jahren diese Technologie überhaupt zu nutzen.

Ähnlich ist es bei DLSS. Die Geschwindigkeits- und Qualitätssteigerung ist möglich, weil die Grafikkarte nicht mehr mit jedem neuen Bild alle Pixel berechnen muss, sondern nur die, die sich tatsächlich ändern.


Tornavida schrieb:
Unter Einbeziehung der deutlich (realen) höheren Kosten bei NV für eine vollwertige Karte (kein LHR/genug VRAM/gute Effizienz und somit Langzeitnutzen) stehen die AMD Produkte nicht schlecht da.
Je nach Betrachtungswinkel (siehe Beispiel oben eben nicht). AMD hat derzeit einfach nur Glück, dass die Spielemagazine/Hardwaretests ohne Einbeziehung aller neuen Features der Karten stattfinden.

Nach den alten Maßstäben (wenn es also keine Fortentwicklung in Sachen Featureset/Software gegeben hätte) stünden sie demnach tatsächlich gut da.

Tornavida schrieb:
RT ist praktisch die einzige Achillesverse von RDNA2 im Vergleich wo die Leistung und Qualität abfällt auch wenn Diese seit Release fairerweise angemerkt zugelegt hat und in brauchbare Regionen angekommen ist wenn 4k nicht als Referenz herangezogen wird.
Mit DLSS, also der teils durch ein nicht vorhandenes Featureset deutlich unterlegenen Leistung in Raster- Spielen wäre es die zweite.
Die Qualität bleibt die gleiche. Man wird aber gezwungen durch die signifikant niedrigere Leistung mehrdimensional Abstriche machen zu müssen.
In brauchbare Regionen kommt das ganze nur deshalb an, weil die Entwickler im Normalfall den kleinsten gemeinsamen Nenner als Entwicklungsbasis nehmen, um die potenzielle Absatzbasis zu erhöhen.
Somit wird diesbezüglich überwiegend AMD- Freundlich entwickelt und auf das eine oder andere RT- Feature verzichtet.

Tornavida schrieb:
Bei nativen Auflösungen ohne RT steht man eh gut da im Lineup.
Es gibt in moderner Spieleentwicklung so etwas wie die native Auflösung nicht mehr.
Tornavida schrieb:
Zugegeben zieht das Argument für AMD mit günstigeren Kosten immer weniger wo schon die 6700xt bei 900+ angekommen ist.
Wie gesagt- Die Kosten müssen sich auch bei voll genutztem Featureset der Konkurrenz messen.
Und je nach Titel, also ob DLSS unterstütz wird oder nicht, bewegt man sich da auf der schiefen Ebene.

Tornavida schrieb:
Auch ich würde mich bei gleichem oder realistisch und gerechtfertigt etwas höherem Preis für eine 3090 statt einer 6900xt entscheiden,keine Frage,das sehe ich selbst bei einer 3080ti so.Aber der Markt verlangt gut 1000,- mehr momentan für eine 3090 und das sehe ich ehrlich gesagt nicht,dass diese Mehrkosten für einen Gamer gut angelegt sind,da in (nicht allzu ferner) Zukunft deutlich mehr Leistung nötig sein wird wo es dann praktisch egal ist welche "alte" Karte man besitzt.
Der Markt ist derzeit keine Referenz. Die Preise sind einer Notlage geschuldet. Das wird auch wieder besser.
Und das mit dem Fortschritt und dass dadurch die alten Karten mit der Zeit obsolet werden, war schon immer so.
Mit dem Unterschied, dass man eine Karte mit DLSS (sofern die Titel das unterstützen) eben deutlich länger nutzen können wird.

Tornavida schrieb:
Was für eine Bedeutung werden heutige Karten zu einer Zeit mit mixed virtual Reality haben?Erfreue ich mich dann tatsächlich an meiner 2,5k Karte,dass ich alte Schinken in RT&DLSS zocke?
Ich hab mich gefreut, dass DLSS für VR- Titel freigegeben wurde. Die 3090 beisst sich an der Pimax 8KX bei mir die Zähne aus. DLSS kann dieses Thema deutlich entschärfen.

Tornavida schrieb:
Ich habe meine eigene 3090 verkauft,da m.E. die Bereitschaft derartige Summen zu bezahlen unter Gamern verschwindend gering ist.
Ich habe mir ein Preislimit gesetzt. Mehr als die damals aufgerufenen 1500,-€ war ich nicht bereit zu zahlen.
Also habe ich mit Geduld so lange gewartet und alle Drops verfolgt, bis ich sie zur UVP kaufen konnte.

Tornavida schrieb:
Die 3080ti verliert m.E. auf lange Sicht wegen LHR was den Wiederverkaufswert zusätzlich zu den realen Mehrkosten drücken wird.
Gerade wegen LHR bleibt der Wiederverkaufswert eher höher, da man davon ausgehen kann, dass der Gebrauchtmarkt nicht von "ausgelutschten" GPUs überschwemmt wird.

Tornavida schrieb:
Denn auch die Miningleistung in Verbindung mit dem Verbrauch wird so wie es aussieht in Zukunft eine grössere Rolle spielen.
Ich hoffe nicht und hoffe, dass die Menschheit diesbezüglich zur ökologischen Vernunft kommt und Mining in aktueller Art und Weise verboten wird. Mining ist ein unsägliches Umweltverbrechen allererster Güte.
 
Zuletzt bearbeitet:
Caramelito schrieb:
Kann man denn gleichzeitig dann auch die Bilder nachschärfen?

Das konnte AMD schon for FSR im Treiber, nennt sich RIS und funktioniert bei allen Games. Hier gibt es aber einen kleinen Knackpunkt. Wenn du FSR im Spiel aktivierst(Upscaling inkl. Nachschärfen) und im Treiber RIS aktivierst hast kann es zu scharf sein :) wird mit RSR das gleiche sein.

RIS ist wirklich gut
 
.Sentinel. schrieb:
In brauchbare Regionen kommt das ganze nur deshalb an, weil die Entwickler im Normalfall den kleinsten gemeinsamen Nenner als Entwicklungsbasis nehmen, um die potenzielle Absatzbasis zu erhöhen.
Somit wird diesbezüglich überwiegend AMD- Freundlich entwickelt und auf das eine oder andere RT- Feature verzichtet.
Abgesehen davon,dass man RT (oder auch 200FPS statt 100FPS) nicht zwingend für ein schönes Spielerlebnis braucht,ist das eine Kernaussage worauf man als Gamer bauen kann.

Zudem ist AMD´s Beschleunigungstechnik zwar DLSS unterlegen aber auf der anderen Seite auch nicht total unbrauchbar und Spiele die ohne eine Technik wie DLSS/FSR (ohne RT) unspielbar sind sind mir zumindest auf den grösseren Karten unbekannt.Der generell höhere Preis einer NV ist gerechtfertigt aber eben nicht für jeden Usecase.Ich spiele z.B. den MSFS lieber auf meiner 6900xt mit 16GB bei 200 Watt als auf einer NV Alternative und da kämen wegen dem Lot eh nur 3080ti oder 3090 in Frage bei deutlich höherem Verbrauch und weniger FPS und höheren Anschaffungskosten.Auch z.B. DV2 läuft auf der 6900xt besser und deutlich sparsamer.Oder,oder...Und?Klar hat Beides kein RT,aber das sind die Games die ich eben gern zocke und CP77 macht mir auch ohne RT Spass und ist für mich mit 80-100FPS mit hohen Einstellungen sehr gut spielbar. Sieht es mit RT besser aus?Oftmals ja,bei übertriebenen Effekten nein.Entscheidend ob ich ein Spiel zocke oder nicht?Nein.Mit DLSS bekomme ich noch mehr FPS?Ja.Brauche ich Das wenn ich schon 80-100FPS habe?Nein.Bei den kleineren Karten sehen die Ergebnisse und die Antworten sicher etwas anders aus,aber da kommt der Preis wieder ins Spiel,egal ob Notlage oder etwas Anderem geschuldet.Der Mist dauert ja schon >1 Jahr an und wird so weiter gehen bzw. sich beruhigen wenn neue Produkte am Horizont erscheinen.

Beispiele wie Metro Exodus für eine Argumentation für das Eine oder Andere heranzuziehen,die man sowohl für NV als auch für AMD an einer Hand aufzuzählen kann, sind m.E. irrelevant und objektiv nicht für eine Wahl zielführend.Metro Exodus kann man auch ohne RT zocken und Ohne wird das Spiel doch nicht unbrauchbar?!Auch dein Argument mit der 2060 schlägt in die gleiche Kerbe und entzieht sich der Objektivität. Oder denkst du tatsächlich eine 2060 sollte einer 6800xt vorgezogen werden?Sicher ist das schön und nachhaltig wenn so eine Karte aufgrund Featureunterstützung weiter genutzt werden kann,gibt es ja auch bei AMD und ist zu begrüssen.

Wie so oft ist nicht alles schwarz oder weiss und zusammenfassend sind wir uns einig,dass das NV Produkt die besseren Features bietet.Letzten Endes kommt es für einen Gamer hauptsächlich auf den Preis an und in speziellen Fällen den Vram oder eben die Features,die es nur bei NV gibt,denn Spielen kann und wird man mit Beiden.Auch eine Konsole bietet massentaugliches Spielvergnügen. Der Zeitpunkt,da bin ich mir sicher,wo es mit dieser Gen. anfangen wird unattraktiv zu werden wird in Zukunft nicht weit auseinander liegen.Hier muss jeder selbst wissen wieviel Geld man versenken will oder meint mit welchem Produkt man am weitesten kommt für sein Usecase.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Northstar2710 schrieb:
Das konnte AMD schon for FSR im Treiber, nennt sich RIS und funktioniert bei allen Games. Hier gibt es aber einen kleinen Knackpunkt. Wenn du FSR im Spiel aktivierst(Upscaling inkl. Nachschärfen) und im Treiber RIS aktivierst hast kann es zu scharf sein :) wird mit RSR das gleiche sein.

RIS ist wirklich gut
Das ist das normale Schärfen, oder?
Das verwende ich sonst schon mit nativer Auflösung, ich stehe iwie, drauf 👍😅

Aber dachte da kommt ne extra Schärfung wenn man mit der Auflösung runtergeht.
 
@Caramelito jaein. Was du meinst ist FSR /RSR (Upscaling inkl. nachschärfen).
Extra Nachschärfen (RIS) machst du ja schon.

FSR und RSR/NIS unterscheidet sich dann nur darin, wann der Algorithmus am Spiel angewandt wird.

Ein Beispiel ist dabei das Tool loosless scaling. Was mehrere Upscaling Arten anbietet. Auch FSR und NIS. Nur das FSR hier leicht schlechter ist, als wenn es im Spiel integriert wird. Da es nachträglich auf das Spiel angewandt wird, wie bei NIS. Von daher könnte man es eher als RSR zu bezeichnen. Was ich allerdings gut finde ist das man bei diesem Tool auch das Nachschärfen vom FSR einstellen kann. Im Gegensatz zu den spiel integrierten Versionen. Obwohl das der spiele Hersteller auch machen könnte, wenn sie wollen würden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Caramelito
Tornavida schrieb:
Zudem ist AMD´s Beschleunigungstechnik zwar DLSS unterlegen aber auf der anderen Seite auch nicht total unbrauchbar und Spiele die ohne eine Technik wie DLSS/FSR (ohne RT) unspielbar sind sind mir zumindest auf den grösseren Karten unbekannt.
Der Vorteil der Upscaler ist, dass das Schreckgespenst Leistungseinbußen durch hohe Auflösungen den Schrecken verliert. Und ja- AMD holt da aus bewährten Techniken viel raus. Das haben sie gut gemacht.

Tornavida schrieb:
Der generell höhere Preis einer NV ist gerechtfertigt aber eben nicht für jeden Usecase.Ich spiele z.B. den MSFS lieber auf meiner 6900xt mit 16GB bei 200 Watt als auf einer NV Alternative und da kämen wegen dem Lot eh nur 3080ti oder 3090 in Frage bei deutlich höherem Verbrauch und weniger FPS und höheren Anschaffungskosten.
Genau das ist doch des Pudels kern.
Doch Schritt- für Schritt. Ist der VRAM ausreichend, hat die Größe dessen keinen Einfluss auf die Performance.
Nutzt man DLSS sinkt zudem der VRAM Verbrauch, so dass man sich damit wieder in Grenzen bewegt, die vorher bei Brut- Force- Berechnung vielleicht überschritten worden wären.

Nun nehmen wir mal an, dass im Rahmen des DX12 Releases nun DLSS zum Einsatz kommt.
Dann ändert sich das entsprechende Preis-/Leistungsverhältnis und auch der Energieverbrauch eben schlagartig.

Ich spiele mit Framecap 1080P/60 und auch 4K/60. Sobald DLSS dazukommt bewegt sich die 3090 im Normalfall in ihren Sweetspot und bin im Schnitt bei 100-200Watt Verbrauch, wo sie vorher für die gleiche Framezahl das Maximum gezogen hat (bis zu 400 Watt), wenn sie maximal schuften muss. Auch hier bessert sich die Effizienz also spürbar.


Tornavida schrieb:
Auch z.B. DV2 läuft auf der 6900xt besser und deutlich sparsamer.Oder,oder...Und?Klar hat Beides kein RT,aber das sind die Games die ich eben gern zocke und CP77 macht mir auch ohne RT Spass und ist für mich mit 80-100FPS mit hohen Einstellungen sehr gut spielbar.
DLSS bzw. Upscaling oder Supersampling haben ja nichts mit RT zu tun. Das funktioniert bei shaderlastigen Spielen ja ebenso gut.

Tornavida schrieb:
Sieht es mit RT besser aus?Oftmals ja,bei übertriebenen Effekten nein.
So siehts aus.
Tornavida schrieb:
Entscheidend ob ich ein Spiel zocke oder nicht?Nein.
Grafik ist nicht alles....
Tornavida schrieb:
Mit DLSS bekomme ich noch mehr FPS?Ja.Brauche ich Das wenn ich schon 80-100FPS habe?Nein.
Siehe oben. Wenn Du bei den 80-100FPS mit welchen Du zufrieden bist, DLSS Quality zuschalten würdest, dann hättest Du bei überlegener Kantenglättung zeitgleich einen erheblich geringeren Verbrauch, wenn Du die Framerate dort als Maximal fixierst.
Tornavida schrieb:
Bei den kleineren Karten sehen die Ergebnisse und die Antworten sicher etwas anders aus,aber da kommt der Preis wieder ins Spiel,egal ob Notlage oder etwas Anderem geschuldet.Der Mist dauert ja schon >1 Jahr an und wird so weiter gehen bzw. sich beruhigen wenn neue Produkte am Horizont erscheinen.
Auch mit neuen Produkten fürchte ich, dass sich erstmal nichts ändert. Es fehlt ja nicht an Fertigungskapaziät, sondern an Bauteilen.

Tornavida schrieb:
Beispiele wie Metro Exodus für eine Argumentation für das Eine oder Andere heranzuziehen,die man sowohl für NV als auch für AMD an einer Hand aufzuzählen kann, sind m.E. irrelevant und objektiv nicht für eine Wahl zielführend.
Das war ja nur ein Beispiel stellvertretend für inzwischen über 100 Titel, die DLSS unterstützen.
Tornavida schrieb:
Metro Exodus kann man auch ohne RT zocken und Ohne wird das Spiel doch nicht unbrauchbar?!
Du kannst auch bei jedem anderen X- Beliebigen Spiel einfach die Grafikqualität für mehr FPS herunterschrauben. Dadurch wird das Spiel auch nicht unbrauchbar. Es verliert eben nur an grafischer Qualität.

Tornavida schrieb:
Auch dein Argument mit der 2060 schlägt in die gleiche Kerbe und entzieht sich der Objektivität. Oder denkst du tatsächlich eine 2060 sollte einer 6800xt vorgezogen werden?Sicher ist das schön und nachhaltig wenn so eine Karte aufgrund Featureunterstützung weiter genutzt werden kann,gibt es ja auch bei AMD und ist zu begrüssen.
Es sollte auch nur als Beispiel dienen, dass "Rohpower" nicht immer auf sinnvolle Weise Effizienz ersetzen soll/kann.

Tornavida schrieb:
Wie so oft ist nicht alles schwarz oder weiss und zusammenfassend sind wir uns einig,dass das NV Produkt die besseren Features bietet.
Letztenendes sind wir uns auch darin einig, dass AMD in Sachen reiner Rasterisierung das attraktivere Paket anbeitet.

Tornavida schrieb:
Hier muss jeder selbst wissen wieviel Geld man versenken will oder meint mit welchem Produkt man am weitesten kommt für sein Usecase.
Genau das - Was ich letztendlich mit meinem Geschreibsel ausdrücken will ist, dass wir uns derzeit in einer Phase des Technologiewechsels befinden. In dieser Zeit ist es immer schwierig herauszufinden, welches das richtige Pferd ist, auf das man setzen muss.

Je nachdem kann man derzeit eben je nachdem was man sich da anschafft, im Gegensatz zu den letzten Jahren eben doch ins "Klo" greifen. Haste zu wenig VRAM bis Du unter Umständen verratzt.
Unterstützt der neue Titel im Exxtremfall Pathtracing, DLSS und was weiss ich noch alles, muss ich auf der anderen Seite damit leben, dass ich im Gegensatz zur Konkurrenz alles runterschrauben muss, um in spielbaren Bereichen zu bleiben.

Abgesehen davon sind AI Upscaling- Verfahren und temporale Akkumulation ein wichtiger und richtiger Schritt in Sachen Effizienz bei teils gesteigerter grafischer Qualität.
AMD und Intel kommen diebezüglich hoffentlich in die Pötte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tornavida
Zurück
Oben