News GeForce, Radeon und Arc: Was sind eure Prognosen für neue Grafikkarten im Jahr 2024?

K3ks schrieb:
Wie kommst du darauf dass es sich nicht mehr lohnt auf die 40er zu setzen? Ich glaube kaum dass die Nachfolgegenerationen dieses Jahr rauskommen oder gar günstiger werden als die derzeitige Gen und ein Jahr ist keine kurze Zeit...
So ist es, Nvidia wäre schön dumm, wenn sie ohne Not die Preise senken würden.
Außerdem gibt es auch tatsächlich Fälle, wo es sich noch nicht mal lohnen würde, die "Super" Modelle statt der "Non-Super" zu kaufen. Ich persönlich bin mit den durchschnittlich 160W Verbrauch bei meiner 4070 sehr zufrieden, die maximal 200W erreicht diese eigentlich nur in Benchmarks. Ich suche gar keine Grafikkarte mit einem höheren Stromverbrauch...
 
  • Gefällt mir
Reaktionen: interesTED und Mcr-King
Cohen schrieb:
Deine schlechten Spielegeschmack brauchst du hier nicht zur Schau stellen ;-)
Das musst Du schon mir überlassen, wofür ich 49,99€ auf den Tisch lege.
(gelegt hätte beim Lauch)

Ich preferiere persönlich Games mit besserer P/L, sprich mehr h/€.
 
Quidproquo77 schrieb:
Ich mag HWU, bei DLSS/FSR übertreibt er aber ein bisschen.
Habe das vor 2-3 Monaten versucht .. ein Rechner 4090, einer XTX und 3440x1440 mit Q/B/Perf mit DLSS/FSR genutzt.
Ich finde alles spielbar, manchmal bewegt sich irgein Zaun nervig (sowohl FSR als auch DLSS) aber das ist iwo in der Ferne wenn man stehen bleibt und sich darauf konzentriert.

Beim SPIELEN an sich, fällt es mir nicht auf, ob ich DLSS oder FSR nutze, auch in QHD nicht, weil ich BEIM SPIELEN nicht rumstehe und Screenshots und Vergleiche mache. Vor allem bei Shootern oder Rennspielen.

Wenn man es haargenau unter die Lupe nimmt gewinnt meistens DLSS, in jedem Review bisher, welches ich gesehen habe.
Mir ist das ziemlich egal, sobald die Performance stimmt und ich keine Bildfehler/Artefakte habe
 
  • Gefällt mir
Reaktionen: DevPandi
Alle upscaler sind ne Krücke damit man unspielbare fps in spielbare bringt und haben immer einen optischen Nachteil
Darum sollte man diese nie in hardwaretest sein mit dem Hinweis das dies geht.
In software also spielbezogen nur einer gpu um den gewinn darzustellen wenn man es nutzt und bei hardware gar nicht.
Auch wenn in dxr bei hardwaretest da nur 9fps rauskommen ist das eben fakt.
Da braucht man nicht mit upscaler so zu tun das die hardware das dann kann.
 
  • Gefällt mir
Reaktionen: PegasusHunter
Cohen schrieb:
Brauchen die meisten Monitore nicht unter 100 Watt?
unter 100 Watt? Unter 30 Watt sollten sie brauchen,das ist der Knackpunkt.:cool_alt:
 
  • Gefällt mir
Reaktionen: FR3DI
Caramelito schrieb:
Ich mag HWU, bei DLSS/FSR übertreibt er aber ein bisschen.
Wirklich? Hier nochmal ein aktueller Vergleich zwischen DLSS Qualität und FSR Qualität vor einer größeren Kulisse, ohne Zoom.
Schau auf die gesamte Vegetation, wie unruhig das Bild mit FSR ist.

DLSS
FSR

Und ich will überhaupt nicht sagen, dass FSR unbrauchbar ist, im Gegenteil.
Man kann damit in QHD und Qualität super leben, aber im direkten Vergleich würde ich es nicht nutzen wollen, wenn es eine andere Alternative gibt.
Caramelito schrieb:
Habe das vor 2-3 Monaten versucht .. ein Rechner 4090, einer XTX und 3440x1440 mit Q/B/Perf mit DLSS/FSR genutzt.
Ich finde alles spielbar, manchmal bewegt sich irgein Zaun nervig (sowohl FSR als auch DLSS) aber das ist iwo in der Ferne wenn man stehen bleibt und sich darauf konzentriert.
Also ganz so ist es meiner Meinung nach nicht. In meinen Beobachtungen ist es die ganze Geometrie, die bei FSR mehr flimmert, nicht nur Zäune oder transparenter volumetrischer Rauch, es ist das ganze Bild.
Caramelito schrieb:
Beim SPIELEN an sich, fällt es mir nicht auf, ob ich DLSS oder FSR nutze, auch in QHD nicht, weil ich BEIM SPIELEN nicht rumstehe und Screenshots und Vergleiche mache.
Bei mir dauert es keine Sekunde und ich sehe den Unterschied, selbst wenn FSR ordentlich implementiert wurde, wie in Avatar.
Caramelito schrieb:
Wenn man es haargenau unter die Lupe nimmt gewinnt meistens DLSS, in jedem Review bisher, welches ich gesehen habe.
Ich sehe das weitgehend auch so, nur würde ich den Aufwand den ich betreibe um den Unterschied herauszuarbeiten bei 0 sehen. Ich gehe ins Spiel, mache ein kurzes Video und das wars.
Caramelito schrieb:
Mir ist das ziemlich egal, sobald die Performance stimmt und ich keine Bildfehler/Artefakte habe
Ein niedriger aufgelöstes Bild produziert ja genau diese Artefakte, die beim Gaming stören.
Deshalb haben wir ja früher OGSSAA oder SGSSAA benutzt, um diese zu reduzieren, aber irgendwie klappt das bei FSR nicht so recht.
 
Zuletzt bearbeitet:
@Quidproquo77 Du gehörst wahrscheinlich zu den 0.5% die das sehen/bemerken.
Auch dieses "Flimmer" Video da oben DLSS vs FSR .. wenn ich FSR einschalte und spiele interessiert mich das so herzlich wenig, dass es mir niemals auffallen würde :-)

Bisher ist es mir bei Zäunen oder in manchen Games (Glaube Fortnite mit DLSS) Bäumen aufgefallen, das waren eben Flimmer-Zäune vereinzelt (ab DLSS Perf bei 3440x1440 in Cyberpunk) oder eben ein Baum der komische Schatten wirft in Fortnite, was aber eher ein Grafikbug ist und kA ob da DLSS "schuld" dran war.

Alles in allem, bin ich sowohl mit DLSS, als auch FSR mehr als zufrieden.

Frame Gen. ist bei mir so eine Sache, ich spüre die Rucker auch mit 130fps in Cyberpunk beim Fahren zB
Allgemein alles was nicht butterweich ist (zB 60hz Monitore, low fps, etc.) spüre ich persönlich instant. Mein Erster 120hz Monitor (und seitdem nie darunter) ist auch 10+ Jahre her und bin es halt gewohnt.

Denke alles eine subjektive Wahrnehmung bzw. worauf man Wert legt.
 
PegasusHunter schrieb:
Unter 30 Watt sollten sie brauchen,das ist der Knackpunkt.:cool_alt:
Knackpunkt ist hier die Bildschirmdiagonale. Andere kommen doch auch ganz gut mit unter 7 Zoll klar.😁 Heute erst wieder gesehen. Heute erst wieder belächelt!

Aber im ernst; mit Technologien wie z.B.: OLED und oder ehemals Plasma, muss man einen erhöhten Verbrauch in Kauf nehmen. Dafür liefern diese ja auch ab?

Gruß Fred.
 
Caramelito schrieb:
@Quidproquo77 Du gehörst wahrscheinlich zu den 0.5% die das sehen/bemerken.
Wirf mal einen Blick auf die großen 3 Palmen von der Mitte leicht links , ich denke das sehen 99,9%.
DLSS: Palmen flimmern nicht FSR: Palmen flimmern stark
Caramelito schrieb:
Auch dieses "Flimmer" Video da oben DLSS vs FSR .. wenn ich FSR einschalte und spiele interessiert mich das so herzlich wenig, dass es mir niemals auffallen würde :-)
Wo schaust du das? Auf einem gescheiten Monitor in Mindestens WQHD oder auf dem Handy?
Also ich würde doch schon schwer daran zweifeln, dass das niemandem auffällt.
 
Bin grad aufm Gaming-Tablet unterwegs, aber ich spreche da eher aus eigener Erfahrung.
Ich stelle meist alles auf Ultra + DLSS Balanced und fange einfach an zu spielen.
Mit dem AMD Rechner ebenso.

Wenn mir etwas auffallen sollte und ich es auf ein Setting zurückführen kann, dann passe ich das Setting an.
Bei DLSS/FSR gab es bisher eigentlich keine Probleme.

Wie gesagt das ist alles "mega" subjektiv.

Mein Bruder hat bis vor 2mon auf nem ryzen 2600 und gtx1070 gezockt und meinte alles sei super in WQHD.
Und wir im Forum reden hier von "FSR Quality ist unspielbar, alles unter 140dpi verursacht Augenkrebs und Omg kein OLED? Brauchst gar nicht spielen" -- In meinem Fall sind es die HZ oder High FPS die mir immer fehlen und alle denen ich es zeige, meinen ich würde maßlos übertreiben :-p
Unsere Bubble ist sehr klein.
 
  • Gefällt mir
Reaktionen: usernamehere
Also ich hab eine Asrock Arc A770 für 299€ ergattert und bin mit der bisher zufrieden obwohl ich Jahrzehnte lang Nvidia Karten besaß und muss sagen die karte wird immer besser von Treiber zu Treiber Release momentan liegt sie leistung mässig auf Niveau einer 3070 von Performance her aber umso mehr man die karte fordert kann sie sich mehr absetzen dank 16 GB und 256 bit bus auch für die Zukunft gut gerüstet erstmal 😉 sehe es nicht mehr ein für kruppelkarten so viel geld hinzulegen wie die 4060 zb.
 
danyundsahne schrieb:
Es erwägen ja schon einige auf die Konsole abzuwandern. Oder haben es bereits getan.
Und andere erwägen, auf den PC abzuwandern. Oder haben es bereits getan. Oder nutzen einfach beides.

Gestern hatte Steam übrigens einen neuen "concurrent user"-Allzeitrekord.
Und vorgestern einen neuen "in-game"-Allzeitrekord.

ingame-peak.png


Nach dem Ende der Pandemie-Einschränkungen ist die dortige Spielerzahl auch nicht (wie zunächst befürchtet) wieder gesunken sondern sogar noch leicht angestiegen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Caramelito schrieb:
Und wir im Forum reden hier von "FSR Quality ist unspielbar, alles unter 140dpi verursacht Augenkrebs und Omg kein OLED?
Wer redet denn so? :confused_alt:
Aber ist eben deutlich auffällig, wenn man das auf einem ordentlichen Monitor ansieht.
Am Tablet siehst du das nicht.
 
Cohen schrieb:
Und andere erwägen, auf den PC abzuwandern. Oder haben es bereits getan. Oder nutzen einfach beides.

Gestern hatte Steam übrigens einen neuen "concurrent user"-Allzeitrekord.
Und vorgestern einen neuen "in-game"-Allzeitrekord.

Anhang anzeigen 1441185

Nach dem Ende der Pandemie-Einschränkungen ist die dortige Spielerzahl auch nicht (wie zunächst befürchtet) wieder gesunken sondern sogar noch leicht angestiegen.
Mh, das mag sein, dass es bei Steam zu einem Allzeithoch an "gleichzeitig online" kam...super.
Das bedeutet ja noch lange nicht ob es mehr Steam User werden.
Könnte auch sein, dass es schon seit 2 Jahren diese Steam User gibt. Nur am Samstag, 06.01. waren bisher am meisten online.
Und das nicht nur in den letzten 3 Monaten, sondern vielleicht eher auf Jahre zurück?

Aber wie viele Mio Konsoleros gibt es im Verhältnis zu PC Spielern?
Tendenz steigend oder fallend?
Das macht die Aussagen dann schon eher interessant. :)

Aber ich glaube kaum, dass wenn sich GPUs in Richtung 1000€ hin entwickeln und es keine Einstiegskarten im Bereich von 100-200€ entwickelt werden, dass die PC Spielerschaft im großen Stile zunimmt...dafür gibt es zu wenige Reiche ;)
 
Quidproquo77 schrieb:
Diese Behauptung triffst du auf welcher Grundlage?
Die Behaupunt stelle ich auf Grundlagen von sehr vielen Spielen auf, die ich "bis" Juli zwangsweise mit FSR spielen musste und nun auch mit DLSS und FSR spielen konnte. Egal ob jetzt Cyberpunk 2077, Starfield, Diablo 4, aktuell Ratchet & Clank oder Baldurgs Gate 3 und ein paar andere Spiele.

Mir selbst fallen in keinem dieser Spiele beim spielen "qualiative" Unterschiede auf. Ich stelle Unterschiede fest, dieses sind allerdings eher subtiler Natur. Mal wird ein Detail bei DLSS genauer heraus gearbeitet und geht bei FSR unter oder umgekehrt. Genauso ist mal eine Oberfläche verwaschener mit DLSS oder FSR, mal eine Kante etwas unsauberer mit der einen oder andere Technik.

Da man sich jedoch je nach Spiel auf ganz andere Sachen konzentiert, gehen diese Unterschiede unter und geraden so schnell aus dem Fokus. Und Fokus ist hier das Stichwort. Darauf gehe ich später ein.
Quidproquo77 schrieb:
Qualität auf einem UWQHD oder QHD Monitor mit FSR ist besser als die Auflösung zu reduzieren, aber auch für Laien sofort erkennbar schlechter als DLSS Q.
Müssen wir argumenativ direkt auf Strohmänner zurückgreifen? Na, ich wäre ja mal gespannt, ob du deine Aussage - so wie du es von mir verlangst - auch belegen kannst. Gerade mit den "Laien" dürfte das ziemlich kompliziert werden.

Es gibt in diesem ganzen Zusammenhang nämlich ein paar Probleme - und deswegen schreibe ich aktuell auch primär aus meiner eigenen Sichtweise. Die Qualität des finalen Bildes hängt von ein paar mehr Faktoren ab, als nur DLSS und FSR und viele dieser Faktoren sind dazu noch höchst subjektiver Natur und/oder hängen auch von der verwendeten Ausrüstung ab.
Wenn ich hier einen Blindtest in Cyberpunk 2077 mit 5 Kolleg*innen mache - und das sind Laien - dann fällt keinem bei einem Test auf, ob nun DLSS oder FSR aktiviert ist, wenn ich sie spielen lasse, da da dann die Aufmerksamkeit ganz wo anders ist.
Quidproquo77 schrieb:
Du kannst mir gerne einen Test oder einen Vergleich zeigen, der deine Sicht bestätigt, mir ist keiner bekannt.
DevPandi schrieb:
Gewisse Sachen fallen dann beim Innehalten auf - etwas verwaschener Texturen, etwas verlorene Details.
DevPandi schrieb:
Am Ende ist auch die Bildqualität immer etwas, was man subjektiv bewertet und man kann [eine] andere Meinung haben.
Bisher gibt es nur einen umfassenden Test zum Thema FSR vs DLSS von Hardware Unboxed. Ansonsten gibt es eine Vielzahl von Tests - auch auf CB - und wie das Fazit hier ausfällt, wenn FSR "sauber" implementiert wurde, hat @Wolfgang schön formuliert im Test zu Avatar: "Vor allem in 3.840 × 2.160 erzeugt FSR mit diesen Eigenschaften am Ende aber ein erstaunlich stabiles Bild, das dem von Nvidia DLSS nur verhältnismäßig gering unterlegen ist."

Ich schreibe in meinen Beiträgen im übrigen nicht umsonst davon, dass ich bei Spielen immer sowohl FSR als auch DLSS teste. Es kommt sehr oft darauf an, ob DLSS/FSR nur als Check-Point im Lastenheft stand und abgestrichen wurde, oder ob es wirklich sauber implementiert wurde.

Und damit kommen wir jetzt zu meinem entscheidenden Punkt: Ich habe nicht umsonst die ganze Zeit davon geschrieben, dass für mich am Ende die Entscheidung zwischen DLSS und FSR darin besteht, welche der beiden Techniken für mich im Spiel die störrernden Artefakte beim Spielen erzeuge.
Quidproquo77 schrieb:
Artefakte einer gefühlt niedrigeren Auflösung, sprich Kantenflimmern und Bildinstabilität stechen sofort ins Auge. Ghosting von feinen, kleinen Objekten muss man mit schnellen Drehungen provozieren bzw. suchen.
Ich habe nach diesem Satz durchaus überlegt, ob ich auf dich weiter eingehen werde an dieser Stelle oder einfach nicht.

Auf der einen Seite bauscht du hier argumentativ Kantenfilmmern und Bildinstabilität auf, weil das einem sofort ins Auge stechen würden, gleichzeitig spielst du die Probleme des Ghostin massiv herunter, in dem du behauptest, dass man es provozieren muss und es ja nur feine und kleine Objekte wären.
Du misst hier mit Zweierleimaß und damit erübrigt sich eigentlich jegliche Diskussion, weil es nur darum geht, das du recht hast.

Beim Kantenflimmern - und hier nehme ich jetzt direkt bezug auf die von dir verlinkten Videos und deine folgende Aussage:
Quidproquo77 schrieb:
Wirf mal einen Blick auf die großen 3 Palmen von der Mitte leicht links , ich denke das sehen 99,9%.
Der Fokus beim spielen ist entscheidend, ob Kantenflimmern, Bildinstablitäten oder Ghosting störend sind oder nicht, nicht unbedingt deren Existenz.

Ich glaube nicht, dass ich beim Spielen - ich müsste mal Avatar anschmeisen und die Szene da mal mit FSR und DLSS nach stellen - darauf achte, ob irgendwelche Palmen im "Hintergrund" bei mir so im Fokus liegen, dass ich das mitbekomme. Ob ich jetzt auf die Palmen geachtet hätte, wenn du nicht explizit diese erwähnt hast, kann ich jetzt nicht mehr sagen.

Für mich relevant ist bei DLSS und FSR, wie das Bild in meinem Fokusbereich aussieht und ob es da zu Artefakten kommt. Der Fokus liegt in der Regel - nicht nur bei mir - eher in der Bildschirmmitte. Und dann ist es egal, ob wir von Kantenflimmern, Bildinstabilität oder Ghosting sprechen. Ich empfand lange Zeit das Ghosting bei DLSS in Cyberpunk 2077 - das hat sich gebessert - der Hauptfigur beim Motorradfahren und Co sehr störend, es hat mich regelrecht irritiert. Da habe ich lieber FSR2 verwendet, weil es das nicht hatte.

Genauso nutze ich jetzt lieber DLSS, weil es mit den feinen Texturen von Klamotten auf Haut besser zurecht kommt, als FSR. Letzteres neigt dazu es zu verschlucken. Wobei beide besser sind als "Nativ".

Es ist mir dabei aber egal, ob irgendwo oben eine Kante flimmert, die nicht in einem Fokus ist oder ein Zaun Links im Bild auf den ich nicht achte, Währebnd das Auto, dass ich fahre, sehr wohl in meinem Fokus liegt und mich Ghosting dann stören würde.

Und damit kommen wir zurück zum Punkt Subjektivität: Ich bin nicht du, du bist nicht ich, ich bin nicht Wolfgang oder der Herr von Hardware Unboxed und Co. Wir alle haben unsere eigenen Präferenzen und reagieren unterschiedlich auf die verschiedenen Artefakte. Dazu legen wir alle auch den Fokus vermutlich anders und was für Hardware Unboxed ein "klarer" Sieg für DLSS sein kann, muss für mich kein klarere Sieg sein, weil ich vielleicht einen ganz andere Fokus lege.

Ich reagiere total empfindlich auf Ghosting und wenn DLSS bei einem Spiel in meinem Fokusfeld Ghosting erzeugt, dann ist für mich DLSS an der Stelle klar die schlechtere Lösung und erzeugt auch das schlechtere Bild. Wenn FSR bei einem Gesicht in meinem Fokus Kanntenflimern oder andere Artefakte erzeugt, die DLSS nicht erzeugt, dann erzeugt für mich FSR das klar schlechtere Bild. Vollkommen unabhängig, ob du oder Hardware Unboxed oder ein anders Community Mitglied DLSS oder FSR besser findet - allgemein - oder es in euren Augen in Spiel X weit überlegen ist.

Und genau das ist der entscheiden Knackpunkt: Für "mich" muss am Ende beim spielen das Bild stimmen und natürlich gilt das auch für dich. Wenn für mich in Titel A FSR das bessere Bild erzeugt, dann kann für dich in Titel A dennoch DLSS das bessere Bild erzeugen. Das ist kein Widerspruch, sondern hängt von unseren Präferenzen ab und worauf wie empfindlicher reagieren.

Daher ist diese Diskussion in der Regel auch vollkommen hinfällig. Es wird hier - gerade von deiner Seite - zu sehr versucht "Recht" zu haben - auch der Verweis auf einen vernünftigen Monitor, wenn ich jetzt schreibe, dass ich eine Brille trage, kommt dann der verweis, dass ich wegen meiner Augen das eh nicht erkennen kann?

Es geht hier nicht um "Recht" haben, es geht alleine um das subjektive Empfinden, was sich für einen am Ende besser anfühlt. Ich hasse Süßkartoffel Pommes, ich kann die nicht ausstehen und finde die grauslig. Da Stellen sich mir die Nackenhaare auf. Das bedeutet aber nicht, dass du die auch grauslig finden musst, du kannst die sogar als die besten leckersten Pommes der Welt sehen. Dann ist das so.
Caramelito schrieb:
Beim SPIELEN an sich, fällt es mir nicht auf, ob ich DLSS oder FSR nutze, auch in QHD nicht, weil ich BEIM SPIELEN nicht rumstehe und Screenshots und Vergleiche mache. Vor allem bei Shootern oder Rennspielen.
Solang man Spaß beim Spielen hat und man glücklich ist, ist alles erreicht, egal ob DLSS oder FSR oder XeSS.

Ich mach mir jetzt leckere Korketten, für die Mitbewohner gibts Süßkartoffelpommes und alle sind Glücklich!
 
  • Gefällt mir
Reaktionen: Caramelito
PegasusHunter schrieb:
Vielleicht kommen ja 2024 mal Monitore ≥ 30 Zoll heraus, die stromsparender sind. Das Stromverbrauchsgejammer bei Grafikkarten ist mittlerweile unnötig. Eure Monitore brauchen zu viel Strom und laufen viel häufiger und länger als die Grafikkarten unter Volllast.

Cohen schrieb:
Brauchen die meisten Monitore nicht unter 100 Watt?

PegasusHunter schrieb:
unter 100 Watt? Unter 30 Watt sollten sie brauchen,das ist der Knackpunkt.:cool_alt:
Na ja, die Spieler wollen immer größere, hellere und hochauflösendere Displays.

Mein 42-Zoll-Display kommt mit 52 Watt im normalen Betrieb aus, bei HDR-Spielen dann 94 Watt und 0,5 Watt im Stand-by... mein TV braucht das Doppelte, sowohl in SDR als auch in HDR.

Meine älteren Monitore brauchten trotz deutlich kleinerer Displays und geringerer Helligkeit auch alle deutlich mehr in SDR.

Ich habe spaßeshalber auch mal meinen alten 21''-CRT-Monitor (34 kg!) nachgeschaut... der schluckte 160 Watt und selbst im Standby noch 10 Watt:

display-energy.png
 
  • Gefällt mir
Reaktionen: PegasusHunter
DevPandi schrieb:
Die Behaupunt stelle ich auf Grundlagen von sehr vielen Spielen auf, die ich "bis" Juli zwangsweise mit FSR spielen musste und nun auch mit DLSS und FSR spielen konnte. Egal ob jetzt Cyberpunk 2077, Starfield, Diablo 4, aktuell Ratchet & Clank oder Baldurgs Gate 3 und ein paar andere Spiele.
Also ich habe auch Cyberpunk gespielt und gerade dort ist der Unterschied ähnlich heftig wie in Alan Wake 2, ich kann das Spiel gerne anmachen und das belegen. In Starfield, das ich immer noch vom Kauf meiner RX 7800XT habe, die aber wieder zurückgesendet wurde, war die kostenfreie DLSS Mod schon eine recht große Verbesserung. Avatar ist da von der FSR Implementierung mit Abstand das beste was ich bisher gesehen habe und die DLSS Implementierung evtl. einfach schwach, aber trotzdem noch besser.
DevPandi schrieb:
Mir selbst fallen in keinem dieser Spiele beim spielen "qualiative" Unterschiede auf.
Dann ist das aber konträr zu sämtlichen erschienenen Tests und Vergleichen die ich aus dem Netz kenne.
Dazu wäre es eben auch hilfreich die genaue Auflösung oder den Modus zu wissen. Deine Erklärung wirkt auf mich etwas kryptisch.
DevPandi schrieb:
Ich stelle Unterschiede fest, dieses sind allerdings eher subtiler Natur. Mal wird ein Detail bei DLSS genauer heraus gearbeitet und geht bei FSR unter oder umgekehrt.
Das möchte ich gerne sehen, denn FSR verschluckt aufgrund der Technik und den fehlenden Samples der DL-Komponente pauschal mehr Details, übrigens auch deutlich in Avatar in den Baumwipfeln zu sehen. Dort fehlen mit FSR Verästelungen, an Zäunen und Bodengittern fehlen Streben und das ist direkt in jedermanns Spiel "Fokus".

Die unterschiedlichen Schärfegrade zwischen DLSS und FSR außen vor genommen, das lässt sich konfigurieren.
DevPandi schrieb:
Da man sich jedoch je nach Spiel auf ganz andere Sachen konzentiert, gehen diese Unterschiede unter und geraden so schnell aus dem Fokus. Und Fokus ist hier das Stichwort. Darauf gehe ich später ein.
Ich finde eigentlich, dass du es in deiner Antwort bisher vermieden hast wirklich auf etwas einzugehen und irgendwie mit Rhetorik versuchst zu vermeiden FSR für die teilweise schwache Leistung zu kritisieren.
Den Strohmann-Vorwurf ignoriere ich mal besser, ich verstehe nicht was damit gemeint ist.
DevPandi schrieb:
Na, ich wäre ja mal gespannt, ob du deine Aussage - so wie du es von mir verlangst - auch belegen kannst.
Ich verlange keinen Blindtest von Laien.
Du willst mir sagen, dass diesen Unterschied Performance + BQ hier kein Laie trotz 46% mehr Leistung, was ja wesentlich flüssiger zu spielen wäre, erkennt?
DevPandi schrieb:
Die Qualität des finalen Bildes hängt von ein paar mehr Faktoren ab, als nur DLSS und FSR und viele dieser Faktoren sind dazu noch höchst subjektiver Natur und/oder hängen auch von der verwendeten Ausrüstung ab.
Die da wären? Und wir sprechen ja von DLSS bzw. FSR und nicht von irgendwelchen anderen Faktoren.
Kann es sein dass du vom Thema ablenken möchtest?
DevPandi schrieb:
Wenn ich hier einen Blindtest in Cyberpunk 2077 mit 5 Kolleg*innen mache - und das sind Laien - dann fällt keinem bei einem Test auf, ob nun DLSS oder FSR aktiviert ist, wenn ich sie spielen lasse, da da dann die Aufmerksamkeit ganz wo anders ist.
Denen würde vermutlich nicht einmal auffallen, ob 720p oder 4K Auflösung genutzt wird, da sie ihre Aufmerksamkeit benötigen um mit dem Controller umgehen zu können...aber das ist ja nun ein völlig anderes Thema.
DevPandi schrieb:
Bisher gibt es nur einen umfassenden Test zum Thema FSR vs DLSS von Hardware Unboxed.
Und der ist ja mehr als eindeutig. In den 5 Spielen ist die FSR Variante in 8 Fällen beschränkt auf die 4K Auflösung auf dem selben Level von insgesamt 26 Spielen und 104 Analysen, wobei hierbei eine aktuelle DLSS Version auch die "Ties" fraglich macht. Kurze Stichprobe bei Formel 1 2023.
F1 22 bot nach einigen Patches diverse Upsampling-Techniken an,[/B] bei F1 23 ist dies vom ersten Tag an der Fall. Die neueste Version vom Rennspiel bietet Nvidia DLSS 2, AMD FSR 2.2 und Intel XeSS – theoretisch auch DLSS 3, doch ist Frame Generation derzeit noch deaktiviert. Im Vergleich DLSS 2 gegen FSR 2.2 ist Nvidias Technologie der klare Gewinner.
DevPandi schrieb:
wenn FSR "sauber" implementiert wurde, hat @Wolfgang schön formuliert im Test zu Avatar: "Vor allem in 3.840 × 2.160 erzeugt FSR mit diesen Eigenschaften am Ende aber ein erstaunlich stabiles Bild, das dem von Nvidia DLSS nur verhältnismäßig gering unterlegen ist."
Das ist soweit auch korrekt, dennoch ist der Unterschied noch relativ deutlich auszumachen und bietet für Nvidia Nutzer die Option einfach auf balanced zu gehen und die FPS mitzunehmen.
Mit deiner Taktik diese doch in der Mehrzahl deutlich zu spürenden Unterschiede auf eine Subjektivität zu reduzieren, bin ich nicht ganz einverstanden.
DevPandi schrieb:
Und damit kommen wir jetzt zu meinem entscheidenden Punkt:
Die anderen waren ja bisher auch gar nicht vorhanden, wie ich finde.
DevPandi schrieb:
Auf der einen Seite bauscht du hier argumentativ Kantenfilmmern und Bildinstabilität auf, weil das einem sofort ins Auge stechen würden, gleichzeitig spielst du die Probleme des Ghostin massiv herunter, in dem du behauptest, dass man es provozieren muss und es ja nur feine und kleine Objekte wären.
Ja, in Avatar ist das der Fall. Wenn man in das Lagezentrum der Navi geht, gibt es kleine weiße Lichterketten an der Decke die bei etwas schnelleren Drehungen leicht nach links und rechts ziehen, das war aber das einzige was mir persönlich aufgefallen ist, ansonsten war ich mit dem Ghosting recht zufrieden, auch bei FSR.
Anders als zum Beispiel hier bei FSR.

Ghosting ist also keine Nvidia Einbahnstraße, aber grundsätzlich sehe ich weder bei FSR noch DLSS wirkliche Probleme damit.

DevPandi schrieb:
Du misst hier mit Zweierleimaß und damit erübrigt sich eigentlich jegliche Diskussion, weil es nur darum geht, das du recht hast.
Du hast die Pauschalaussage aufgestellt FSR Quality sei qualitativ genauso gut wie DLSS Quality( und das noch pauschal in jeder Auflösung) und begründest es trotz deutlich anderslautender einhelliger Testfazits mit "Subjektivität" oder "Fokus", nur dass wir uns hier richtig verstehen.
Ich lasse mir ungern von jemanden etwas vorwerfen, der äußerst IHV lastige, kontroverse Aussagen aufstellt und sich dann später mit sehr selten zu sehenden Ghosting-Effekten in Cyberpunk herausredet, die es aktuell weder mit FSR noch mit DLSS gibt.

AMD weiß sehr genau, dass FSR im aktuellen build nicht mit DLSS mitkommt, deshalb unterbindet AMD auch die Nutzung von DLSS kombiniert mit FSR3 FMF.
DevPandi schrieb:
Es wird hier - gerade von deiner Seite - zu sehr versucht "Recht" zu haben - auch der Verweis auf einen vernünftigen Monitor, wenn ich jetzt schreibe, dass ich eine Brille trage, kommt dann der verweis, dass ich wegen meiner Augen das eh nicht erkennen kann?
Also möchtest du mir erklären, dass ein 720p Tablet Video auf einem vermutlich 7 bis 10 Zoll großem Display Bildruhe und Artefakte einer in WQHD erstellten Aufnahme darstellen kann?
Überlege dir doch mal wer versucht hier recht zu haben.

Aber von mir aus: FSR Qualität ist in jeder Auflösung so gut wie DLSS Qualität, die Vergleiche und die Tests die du unter anderem erwähnt hast liegen alle falsch und sind Teil eines von mehrerer subjektiver, beliebiger rechthaberischen Wertungen und du hast recht und ich meine Ruhe. ;)
DevPandi schrieb:
Es geht hier nicht um "Recht" haben, es geht alleine um das subjektive Empfinden, was sich für einen am Ende besser anfühlt. Ich hasse Süßkartoffel Pommes, ich kann die nicht ausstehen und finde die grauslig. Da Stellen sich mir die Nackenhaare auf.
Genau mit solchem Gerede können Fans einer Marke dennoch auf ihrer Meinung beharren. Dann wird FSR aber auch dort bleiben, wo es aktuell ist, denn AMD wird keinen Grund haben etwas zu verbessern.
Grafikqualität mit dem Geschmacksgaumen zu vergleichen ist wohl mit der größte Unsinn den ich je gelesen habe.

Da du Cyberpunk angesprochen hast. Bitteschön und guten Hunger. ;) Wo du dort deinen Fokus verstecken möchtest, bleibt dein Geheimnis.
 
Zuletzt bearbeitet:
Zurück
Oben