Notiz CB-Funk-Podcast #41: Sind DLSS, FSR & Co. noch aufzuhalten? Und wer will das?

Mal abwarten, was die Spiele sagen, welche ich in Zukunft auch spielen mag, welche auf die UE5 setzen.

Bisher hat mich noch keines der UE5 Spiele angesprochen, abseits von Pavlov VR vielleicht, doch das ist auch von der UE4 umgestiegen, zählt für mich daher eher weniger.

Spätestens mit dem nächsten Cyberpunk werde ich vermutlich meine Hardware aufrüsten müssen.
 
Tolles Thema, da warte ich schon drauf. Mir gefällt euer Podcast sehr gut, danke für die interessanten Inhalte.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, Vitche, Quidproquo77 und eine weitere Person
Wieder sehr schöne informative Folge! Liebe den Podcast!

Bitte vergebt mir, aber ich kann mir eine Korintenkackerei nicht verkneifen (bin brainwashed von meiner Deutschlehrerin damals): Fabian sagt bestimmt 10x „zumindestens“ in der Folge. Das Wort gibt es nicht. Entweder „mindestens“ oder „zumindest“.

Puh, jetzt geht’s mir besser 😅

LG
ralel
 
  • Gefällt mir
Reaktionen: h2f, Vitche, Cat Toaster und eine weitere Person
msv schrieb:
Und ich kann sogar mit dem meistens etwas unterlegenen FSR2 bestens leben.
In der Regel ist der Unterschied zwischen DLSS und FSR sowie XeSS "akademischer" Natur und im Spiel fallen gewisse Probleme - wenn man einfach spielt - nicht so auf.

Die Unterschiede werden gerne mal auf Screenshots sichtbar oder in Vergleichsvideo und wenn man explizit gewisse Probleme auch sucht, weil man die Schwächen kennt.
DrFreaK666 schrieb:
Welche Bereiche denn? Wenn RT immer populärer wird, dann muss die Leistung halt auch irgendwoher kommen
Wobei man dazu sage muss der Leistungsbedarf durch RT nicht mal wirklich der Punkt ist, warum XeSS/FSR/DLSS notwendig sein werden. Alleine der nächste sich abzeichende Aulösungssprung von 2160p/4K auf 4320p/8K benötigt so viel mehr an Rechenleistung, dass das mit der aktuellen Geschwindigkeit der Entwicklung von GPUs niht mehr zu bewältigen ist.

Dazu kommt, dass durch die Entwicklung in DX12/Vulkan - Mesh-Shader, Sampler-Feedback und Co - sowie dem wachsenden Verbreitung von PCIe3/PCIe4 SSDs auch immer mehr Date effektiv in "echtzeit" gestreamt und angepasst werden können in den Engines, dass ein immer höheres Detaillevel ermöglicht. Wir sehen in den erste UE5 Spielen - und damals auch den ersten Demos - dass High-Polygon-Modelle von Nah bis Fern verwendet werden und durch die Meshshader effektiv verarbeitet werden können.

Und auch wenn mancher vielleicht nicht glauben mag, auch die Anzahl der darzustellenden Polygone kann die Leistung einer Grafikkarte stark beieinflussen und da heute "Transform & Lightning" auf der GPU berechnet wird, wid hier auch einiges an Leistung benötigt, nur dass die aktuellen Architekturen in der Form noch auf "vergange" Geometrie-Lasten ausgelegt sind und Spieleentwickler erst jetzt anfangen mit der Geometrie zu arbeiten. Bisher hat sich die Geometrie-Arbeiten darauf beschränkt, dass man mal die "Oberfläche" verformt (z.b. Wellengang) oder Polygone anhand einer Displacemapping zu verschieben oder zusätzliche Polygone (Tesselation) hinzuzufügen. Erst mit den bei Vega als "Konzept" eingeführtes Primitive-Shaders und dann in DX12 finalisierte Mesh-Shaders kann man effektiv sehr viele Polygone in einem Abwasch verarbeiten und verwefen, verändern.

Weder RDNA2, RDNA3 noch Turing, Ampere oder Ada sind aber dafür "explizit" ausgelegt. Sie können es, aber eben in dem Rahmen, wie man annahm, das es kommt. Jetzt mit ca. 2 - 3 Jahren, seit de beide es können, fangen an die Entwickler es zu nutzen.

Ich könnte mir vorstellen, dass wir bei NVIDIA in der nächstne Generation garnicht mal einen so starken SM/Shader-Impact erleben, wie von Turing zu Ampere und zu Ada, sondern dass hier die GPU-Entwickler die Geometrie-Verarbeitung weiter anpassen werden und da ggf. Flaschenhälse und Co zu beseitigen.
 
  • Gefällt mir
Reaktionen: StarbornPhoenix, MrHeisenberg und msv
Bengart schrieb:
Vielmehr beschleunigt sie den Abgesang. Ich denke, RT kam zu früh, zu viel Leistung für zu wenig grafischen Gegenwert.

Joar, das wird bzw. ist der längste hardwareseitige Betatest, den es jemals für den PC gab und erfährt deswegen auch kaum Aktzeptanz außerhalb der Bubble Tec.

BQ gewinnen (RT) aber gleichzeitig dabei BQ opfern (Upscaling, vor allem in niedrigen Zielauflösungen; TAA (die Seuche seit Anbeginn) Vergleiche, nehme ich nicht ernst und ein Schärfefilter kann man zudem auch darüber manuell legen, dann wäre die Vergleichbarkeit zumindest wieder ein Stück weit gegeben), was soll man dazu noch sagen. Sprechchöre (auch hier) überzeugen mich nicht, ich mache mir nämlich gerne ein eigenes Bild.

Das interessante ist, ich habe noch nie so viele Menschen (in Foren) gesehen, die über Jahre Unsummen in einen Betatest investieren, den und das zugleich auch noch feiern.

Jetzt aber RT, ne doch nicht, jetzt aber RT (PT), ne auch noch nicht so ganz, Denoising, jetzt aber, ne doch nicht. Dazu noch die GPU Preise.

Man kann heute entweder nur (fast) das Schnellste kaufen (um Upscaling auf 4k nutzen zu können), oder auf FullHD setzen, und dabei ebenfalls fast ganz oben kaufen, um Nativ zu zocken, bzw. DLAA & Co zu nutzen, je nachdem. 1440p ist einfach Mist mit Upscaling, selbst wenn der eine Mist etwas weniger stinkt als der andere.

Feiert ihr mal schön weiter, Sony und Microsoft hat was mein Umfeld anbelangt, ziemlich viele neue Kunden gewonnen, denn jedes Mal wenn ich um GPU Rat gefragt werde, zeigen mir die durchaus gut Verdienenden einen Vogel, zurecht. In vielleicht einer Dekade (so es mich dann noch gibt), werde ich dann Mal fragen, mein Rechner wird jetzt jedenfalls nur noch verbraucht.
 
  • Gefällt mir
Reaktionen: Redirion
Meiner Meinung nach. High dpi Monitor. Beispiel 27” 4 k Display. Dann dlss Performance.
 
Schlecht optimierte Spiele kann man zurecht kritisieren. Wer jedoch erwartet mit Mittelklasse Hardware in 4K Ultra zu spielen, der hat zu hohe Erwartungen. Es gibt auch Einstellungsregler. Mit 4K gab es einen sehr hohen Sprung der notwendigen Rechenleistung. Zudem kommt vermehrt Raytracing in die Spiele. Upscaling ist für die fehlende Rechenleistung notwendig.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Man darf aber erwarten mit einer aktuellen WQHD-Karte, aktuelle Spiele in WQHD ohne Upscaler auf hohen Einstellungen spielen zu können. Raytracing mal außen vor. Da kommt es aktuell ja stark auf die Raytracing Performance der Graka an. Gleiches gilt natürlich für die Anderen Auflösungen. Als Möglichkeit mit älteren Karten aktuelle Spiele zu spielen, sind Upscaler usw. eine gute Möglichkeit.

Abgesehen davon ist der Qualitätsgewinn auf normalgroßen Monitoren ab gewissen Auflösungen sowieso überschaubar. Was die hohen Auflösungen dann mehr oder weniger sinnfrei macht.
 
Ich weiss ihr habt das im Podcast gut erklärt, aber das waren so viele Informationen… gibt es das nochmal irgendwo ganz Übersichtlich auf Schriftbasis oder Tabelle?
Das muss man ja auswendig lernen um das wirklich nach vollziehen zu können 😅
 
UE5 wird die neue Cryengine - Wir nutzen schon heut die Rechnerleistung von Morgen in 10 Jahren!
Ist faszinierend, sieht großartig aus, kann nur keiner heut schon nutzen...

Mit Dx12 und der Verlagerung der Optimierung der Grafik zu den Devs haben die GPU Hersteller sich tatsächlich mehr Arbeit ans Bein gebunden, denn die Zeiten gab es schonmal und was die Spiele-Devs nicht gemacht haben war Grafik zu optimieren, bis auf wenige Vorzeigetitel durch Pionierdevs ala ID.

DLSS und FSR kann nativ nur besser aussehen lassen, wenn die Devs vorher ihren Job nicht machen.

Der einzige echte Nutzen von DLSS und FSR ist, wenn man ein Spiel auf einem hochauflösenden Monitor sonst interpoliert darstellen müßte, ich hab die Erfahrung auch selber gemacht, 1080p, 1440p interpoliert dargestellt sieht auf meinem 4k Monitor schlechter als FSR 4k aus.

Aber das ein Spiel in 1080p 60Hz schon nur noch mit DLSS/FSR spielbar ist, das ist eine Frechheit und beschämend für die ganze Industrie sei es Software, oder Hardware.

Im Moment gräbt sich der Spiele-PC-Markt freiwillig sein Wasser ab!
Kann schon sein, das die 4090 Klasse an Hardware Marge bringt, aber nicht Menge und ohne Menge hat man irgendwann Matrox Status.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ferran und Galaxytourist
DrFreaK666 schrieb:
Welche Bereiche denn? Wenn RT immer populärer wird, dann muss die Leistung halt auch irgendwoher kommen
Sehe ich auch so. Da man jetzt Pixel richtig gut "fälschen" kann (und Frames so mittelgut), hat man überhaupt erst die Leistung übrig, um beim Licht etwas weniger zu fälschen. Native Auflösung bringt, je nach dem wie aggressiv das Upscaling ist, kaum bis gar keinen visuellen Vorteil, während RT meistens enorme Vorteile bringt. Und selbst ohne RT nehme ich gerne das bessere AA und die höheren FPS mit - und selbst am FPS-Limit führt es zu geringerem Energieverbrauch und leiseren Lüftern.
 
  • Gefällt mir
Reaktionen: DrFreaK666
Da möchte ich widersprechen - ausser in RT Minecraft Vids/Screenshots (und da würde es auch auf anderem Wege gehn) hab ich noch kein Spiel gesehn, wo RT so einen Unterschied macht, das der FPS Verlust auch nur ansatzweise gerechtfertigt wäre!

Die Spiele sehn maximal 2% besser aus, bei nur noch 20% FPS.
Und wenn man die FPS erhöht verkehrt sich der Effekt ins Gegenteil und die Spiele können sogar massiv schlechter aussehn!
 
germanoldi schrieb:
werden..Wenn qausi jeder mit der UE5 programmiert
Ich frag mich eh wieso immer noch auf die miese UE gesetzt wird,3 und 4 waren schon schmutz und es gab nur wenige die damit umgehen konnten.

Das nervige ist dann noch,das alle spiele wieder gleich aussehen werden..

Und FSR ist wie es z.Z ist der größte müll,"besser oder gleich gut als Nativ" alles klar..

Da hab ich wohl nen fake FSR weil bei mir werden die spiele deutlich matschiger vorallem auf ferne da bekommt man instant Augenkrebs.
 
  • Gefällt mir
Reaktionen: Cat Toaster
DLSS2 also DLSS Super Resolution finde ich ok, hab aber gern auch noch gleichzeitig Alternativen im Angebot(z.B. TAA mit Nativ), seitens der Entwickler.

Frame Generation(verkürzt DLSS3) find ich voll behämmert. Künstlich durch KI, Frames dazurechnen zu lassen(was dann mehr oder weniger gut funktioniert), worauf man warten muss(kostet einfach gesagt Zeit = lag), um dann ne höhere Zahl darstellen zu können, die nix mehr bedeutet, da höhere fps = weniger inputlag nicht mehr unbedingt gilt.

Das wird extra mit anderen features vermischt(reflex/features für geringere Latenz), damit man dieser Kritik den Wind etwas aus den Segeln nimmt, aber im Grunde kann man diese features auch ohne FG nutzen, was auch anderen Möglichkeiten als DLSS3(edit: FG is gemeint ;) ) zu besserem Inputlag verhelfen würde.
Das Thema ist leider etwas komplexer, so dass man sobald man was anfängt, sich da unendlich in Details verhäddern kann, wenn man versucht zu erklären was man meint.

Dazu fühlen sich RTX 40er Käufer oftmals angep... wenn man sagt man findet FG nicht gut, obwohl man nicht sagt, man findet Nvidia nicht gut.

Bei diesen Extra dazugerechneten nicht "echten" fps, hab ich doch so meine Zweifel, ob das was ist, was ich dazugerechnet haben möchte. Auch zukünftig. Meinetwegen könnten die FG gern wieder einstampfen.

edit: Ich sollte möglichst doch nur FG(frame generation) sagen und das nicht wie Nvidia gern vermischen, mit anderen Begriffen(wie DLSS3).

edit2: Höre grad euren podcast, wo ich merke, ihr habt auch Probleme nicht die Begriffe zu vermischen. ;)
Bin grad erst bei Minute 27 und er gefällt mir bislang sehr gut, auch was die Aufklärung angeht.

edit3:

Sehr gut ! Hab grad den Podcast bei Minute 29 gehört. Das ist genau das was ich meine !!! Bei niedrigen FPS, wo ja irgendwas, was theoretisch mehr bringen könnte, willkommen wäre, sollte man FG halt doppelt nicht nutzen. Bei höheren, braucht man es nicht, da es eh flüssig ist. Minute 29 bis 29:40 genau was ich meine !
Dazu darf man halt die Chance auf Bildfehlern durch FG rechnen(KI geratene Bilder). Ich weiß echt nicht wozu das gut sein soll.

Danke.
 
Zuletzt bearbeitet:
@Vitche Die Aussage bei Minute 22 verstehe ich nicht: Wieso sollte der Sprung von FSR 1 zu FSR 2 größer gewesen sein als von DLSS 1 zu DLSS 2??? :confused_alt:

Schließlich war, wie ihr auch selbst herausgearbeitet habt, DLSS 1 super schwach. FSR 1 hingegen kam natürlich viel später, hat aber durchaus eine Daseinsberechtigung, war eine positive Überraschung und so weiter. Gleichzeitig war FSR 2.0 aber DLSS 2.0 nicht überlegen. Ergo: Geringerer Sprung von FSR1 zu FSR2.

Danach sprachst du noch von vollkommen unterschiedlichen Technologien, die bei FSR1 und FSR2 zum Einsatz kommen. Das gleiche war bei DLSS1 und DLSS2 ja auch der Fall. Ich verstehe wirklich gar nicht, was damit gemeint war. Über eine Klarstellung würde ich mich freuen.
 
Damit war einfach nur gemeint, dass ich (wir?) AMDs Sprung von FSR1 zu FSR2 größer/beeindruckender fanden als bei Nvidia von DLSS1 zu DLSS2. Das kann man aber natürlich diskutieren. Hängt ja allein schon davon ab, in welcher Auflösung man selbst unteres ist bspw.
 
Ich lege keinen Wert auf das ganze Pseudo FPS Gezaubere.
Wenn z.B. AW2 nur damit läuft, sind die Karten einfach zu schwach! Punkt. Was wird da noch diskutiert?

Was hilft mir das rumstammeln, es würde mit DLSS sogar besser aussehen? Es gibt Studien, dass Menschen die nur MP3s hören, diese mit der Zeit als qualitativ hochwertiger einschätzen als die unkomprimierten Stücke.
Jedes künstlich generierte Ghosting, jede künstliche Kacktextur usw nervt mich. Und diese Fehler treten auf, liegt in der Natur der Sache. Mag ja sein, dass es einige nicht stört, mich schon.

DLSS und Co. sollte ein Bonus sein, für Leute die gerne noch mehr FPS brauchen. Aber es kann doch nicht sein, dass es langsam als Standard angesehen wird.

Wenn Grafikkarten der neuesten Generation, die teilweise bis zu 2000€ kosten bei aktuellen Spielen ohne Pfuscherei nicht 60FPS auf 1440p oder sogar 1080p durchgängig halten können, läuft ganz schön was schief. Und dann werden sie am Besten noch für 4k Gaming mit 8GB Ram (ja, das ist Übertreibung) beworben... na Super :)

Und das Crysis damals alles zerlegt hat, war einmalig. Das waren andere Zeiten. Sowas könnte heutzutage nicht noch mal vorkommen.

DrFreaK666 schrieb:
Wer Spiele direkt zu Release kauft (oder noch schlimmer vorbestellt, damit er sie 2 Tage früher spielen kann), ist selbst schuld. Viele Spiele reifen heutzutage leider beim Spieler, auch was Performance angeht
Hmm ist auch so ne richtig megaschlaue Rechnung. Sei froh, dass Leute Spiele kaufen. Sonst könnten die Studios ja gleich dicht machen nach Veröffentlichung, wenn alle erstmal n halbes Jahr warten.
Klar gibts Idioten die Mist rausbringen, aber meist sinds doch die gehypten AAA ingame Shops um die ein Spiel gebaut wurde.
 
OSx86 schrieb:
Hmm ist auch so ne richtig megaschlaue Rechnung
Anders lernen die es doch nicht.
Wenn du Fehler machst, dafür aber nicht bestraft wirst, dann änderst du ja auch nichts dran
 
Zur Frage am Ende: früher habe ich meinen Q9550 und 3770K ordentlich übertaktet. Auch andere CPUs und GPUs.

Mittlerweile läuft mein 5900X mit CurveOptimizer. TDP etc.habe ich im BIOS fest eingestellt, kein PBO. Zieht meisten zwischen 70-90Watt, je nach Spiel. Zum Beispiel Horizon Zero Dawn.

Meine 6700XT habe ich ebenfalls undervoltet. Maximal zieht die Karte 120Watt mit WQHD. Je nach Einstellungen und Spiel natürlich. OC läuft aktuell nur auf meinem RAM, 3200 auf 3800.

Grüße
 
  • Gefällt mir
Reaktionen: Slim.Shady
Zurück
Oben