Leserartikel Verhalten von DLSS und Framegeneration im CPU-Limit bei Cyberpunk 2077

zogger CkY

Commodore
Registriert
Feb. 2007
Beiträge
4.654
NVidia DLSS wird von Nvidia und dem Marketing selbst gerne als das Allheilmittel für die Gamer dargestellt, oder von Entwicklern als Mittel zur “ Performance Verbesserung”.
In vielen Tests wird dann auch oft eine relativ aktuelle CPU genutzt, welche mehr als genug Leistung für alle Lebenslagen bereitstellt.
Im CB-Funk folge #16
Ab 11:50 wurde das Thema ja schon von @Jan und @Vitche angeschnitten, aber es kam nie so wirklich ein Follow Up.


Das Folgt jetzt:
Mithilfe einer 4070 einem etwas betagten i5 10400F auf einem Asrock H510M-ITX/ac mit 32Gb 2666mhz Ram: wird Cyberpunk 2077 in Insgesamt 39 Testdurchläufen, Nativ, mit DLSS ( Quality und Performance) sowie Framegeneration mit dem Max RT Preset und Path Tracing Preset Durchgescheucht.
Im Bios wurde die CPU einmal auf 4 Kerne und 8 Threads begrenzt und einmal komplett von der Leine gelassen als 6 Kerne mit 12 Threads.
Als Auflösung wurde 1920x1080 gewählt.
Bei den Graphen und Ansichten achten wir nur auf die Minimum, 1% percentile und den Durchschnitt. ( Ergebnisse finden sich dann nochmal im Anhang )

Als Erstes schauen wir uns die Performance mit 4/8 an im integrierten Benchmark an.
CX_2023-06-28_00-28-05_Comparison.png

Wie zu erwarten Nativ weit abgeschlagen am Ende, aber der Unterschied zwischen DLSS Quality (Q) und Performance (P) ist fast marginal. Woran liegt es ?
Schauen wir dann auf die einzelnen Ergebnisse und lassen uns dazu die CPU und GPU Auslastung anzeigen wird das Bild klarer:


Nativ (Ohne DLSS)
Nativ.png

Quality
Quality.png

Performance
Performance.png

Unsere 4 Kerne mit 8 Threads sind trotz einem Takt von 4,1 GHz zu langsam! DLSS schafft es nicht, die Performance zu verbessern, weil die CPU einfach nicht hinterher kommt. DIe Auslastung der GPU sinkt immer weiter und Pendelt sich zuletzt bei Performance bei Ca 50% ein.

Aber es gibt ja noch Frame Generation.. Ja, es sieht besser aus, aber Quality ist besser als Performance
Framegeneration.png


Wir hängen einfach zu sehr im CPU-Limit, als das da noch was geht…
Performance
Framgeneration Performance.png


Mit Path Tracing wird es besser aber wir sehen trotzdem einen massiven Einbruch der GPU-Auslastung mit DLSS Performance
PathTraycing.png

Performance / Quality
Pathtraycing Performance.png
Quality Pathtraycing


Den Aufmerksamen ist aber sicher schon aufgefallen, wie im letzten Drittel beim Aussenbereich vom Benchmark die CPU Last steigt. Die Darstellung von bewegten NPCs kostet CPU Leistung, also wie verhält sich das jetzt nun ingame? Einmal ein Savegame geladen und ein kurzer 30 Sekunden Rundgang um Corpo Plaza..
Ingame.png

Was soll man da sagen:
Hartes CPU-Limit Quality und Performance nehmen sich fast nichts. Die minimalen FPS sind nur gegenüber Nativ Besser.
Ingame Nativ.png
Ingame Quality.png
Ingame Performance.png

Die GPU-Auslastung fällt ins bodenlose. Mit DLSS-Performance liegt die Auslastung bei ca 40%, Selbst Ohne DLSS reichen 4 Kerne und 8 Threads einfach nicht aus.
Und Frame Generation? Besser aber Performance hat es nicht so mit der Performance … ( und ja ich hab das 3 mal getestet… )
Framgen Ingame.png

Die GPU-Auslastung steigt um ca 10% mehr aber auch nicht.


4 Kerne sind dann wohl doch etwas wenig, wie sieht es mit 6 Kernen aus? Die CPU ist ja nicht so alt sollte doch reichen, oder?
6Core Bench.png

Ehm: Nein, Gleiches Bild wie bei 4 Kernen, mit DLSS, schlägt das CPU-Limit wieder voll zu.

Nativ / Quality / Performance
6c Nativ.png
6c Quality.png
6c Performance.png


Vor allem Ingame macht es sich wieder stark bemerkbar, wo Quality ähnlich wie Performance abliefert, das "Wundermittel" Framegeneration lässt die Zahlen auch nur größer werden aber ändert nichts am CPU Limit.

6c ingame.png
6c ingame Framegen.png


und selbst wenn wir Ingame die Auflösung auf 2560 x 1440 erhöhen, ändert es so gut wie nichts am CPU-Limit aber Performance Liefert diesmal die meisten FPS.
6c 1440.png


Fazit:
Im CPU Limit vermag es DLSS die Min-Frames anzuheben und aus einer unschönen Ruckelpartie ein halbwegs angenehmes Spielerlebnis abzuliefern, aber es ändert nichts daran dass DLSS der CPU deutlich mehr abverlangt. Gleichzeitig kann aber DLSS Ruckler, bedingt durch das CPU-Limit nicht ausgeglichen, ebenso wie Frame Generation. Mit DLSS fällt die CPU viel mehr ins Gewicht als ohne. In Spielen, welche entweder schlecht Optimiert sind, oder von Anfang an ein CPU-Limit besitzen, wird DLSS noch weit mehr zusetzen als es ohne der Fall wäre. DLSS ist nicht das besagte Allheilmittel für mehr FPS, ebenso wie Frame Generation, vor allem da beide Technologien im Zusammenspiel den Inputlag vergrößern.
Die CPU ist mit steigenden Auflösungen immer weiter in den Hintergrund gerückt, aber mit dem Aufkommen von DLSS hat die CPU wieder eine deutlich größere Relevanz. Zusätzlich verhält sich DLSS ( und auch Framegeneration) im CPU-Limit sehr komisch. Das ist mir weniger im integriertem Benchmark aufgefallen, dafür deutlicher beim Rundgang um Corpo Plaza. Inputlag ist bei DLSS und Framgeneration bekannt, aber im CPU-Limit hatten mache Inputs einen wahrnehmbaren Mikroruckler zur Folge. Es war nicht zu 100% reproduzierbar aber beim ausweichen von Passanten kam es häufiger vor, Obwohl Nvidia Refelex aktiviert war.
Die Annahme, CPU später aufrüsten, kann also auch nach hinten losgegehen. DLSS vermittelt den Eindruck, dass man spielbare Frames hat, aber Mikrorucker in Zusammenspiel mit Inputlag das Erlebnis zur Qual machen als zur Freude.

Ich hoffe, liebe Boardies, ihr nehmt mich nicht zu sehr auseinander. Im Anhang finden sich alle Ergebnisse ( Captures.rar) zur genauen Analyse in CapFrameX ( mit Erklärung meiner Kürzel) , sowie mein verwendetes Save Game für den Rundgang um Corpo Plaza.
 

Anhänge

  • Captures.rar
    4,6 MB · Aufrufe: 87
  • ManualSave-7.rar
    4,7 MB · Aufrufe: 98
  • Ingame.png
    Ingame.png
    45,1 KB · Aufrufe: 169
  • Ingame.png
    Ingame.png
    45,1 KB · Aufrufe: 184
Zuletzt bearbeitet: (Testsystem ergänzt)
  • Gefällt mir
Reaktionen: kryzs, TweetyII, Tanzmusikus und 23 andere
Danke für den Test, klingt für mich absolut nachvollziehbar.
DLSS und FSR rendern ja je nach Einstellung in einer niedrigeren Auflösung und dann wird das ganze, je nach Verfahren, hoch skaliert.

DLSS ist in meiner Welt für 4K und WQHD. Afaik wird bei 4k Ziel Auflösung mit Performance 1080p und bei Quality 1440p als "Basis" hergenommen.

Wenn du schon 1080p als Auflösung für deine Test nimmst, dann wird dann mit Quality nicht schon nur mit 720p gerendert? Das man da voll im CPU limit hängt, ist für mich absolut nachvollziehbar.
 
  • Gefällt mir
Reaktionen: zogger CkY
Umfangreicher Leserartikel ... Top

Was klar sein sollte ... DLSS kann nur so viel mehr rausholen wenn die CPU auch das mehr an Leistung bringt um die "Dreiecke" zu berechnen. Das ist immer noch ein Hauptaugenmerk das halt die Umgebung und die KI Bewegung der Personen reine CPU Arbeit ist... also ist es um so Effektiver je weniger Leistung die GPU hat bei der genutzten Auflösung... in 4K wären die Unterschiede wohl eher deutlicher.

Dies haben wir ja schon öfters gesehen wenn es um reine 4K Tests ging wo die CPU dann oft fast egal war ... da die meisten GPU´s einfach vorher limitierten..

Frame Generation ist am Ende ja nur eine Zwischenbildberechnung der GPU ... hier ist die CPU weitestgehend außen vor... und genau hier ist das Problem des Input Lags ... da ja zwei Bilder bekannt sein müssen um das Zwischenbild zu generieren... braucht es Zeit. Aber so wird ja eine Information angezeigt die sich durch den weiteren Input schon verschiebt oder verschoben hatte.
 
  • Gefällt mir
Reaktionen: kryzs, Tanzmusikus, SVΞN und eine weitere Person
Ich vermisse die Angaben zum Arbeitsspeicher welcher gerade im CPU Limit ein nicht zu vernachlässigender Faktor ist und das Ganze aus einer anderen und interessanten Richtung hätte beleuchten können wenn man verschiedene Setups getestet hätte. Diese Angabe gehört bei einem Test immer genannt.

Ansonsten zeigt der Test was die Techniken mindestens leisten müssen, was auch im ersten Satz des Fazit genannt wird.

"Im CPU Limit vermag es DLSS die Min-Frames anzuheben und aus einer unschönen Ruckelpartie ein halbwegs angenehmes Spielerlebnis abzuliefern"

Gleiches dürfte auch für FSR gelten und FG setzt halt nochmals was drauf und zeigt auch hier auf, dass man selbst mit einem betagten 10400F und einer 4070 mit aktueller Technik ein AAA Titel wie CP77 durchaus gut zocken kann und zudem noch Luft hat mit RT und PT experimentieren zu können und ein spielbares Setting findet.

Das eine 3 Gen. alte 4c CPU in Verbindung mit einer aktuellen potenten GPU wie der 4070 insbesondere in CP77 keine Bäume ausreisst dürfte anhand zahlreicher Tests bekannt sein. Auf CB und ich mein auch auf PCGH gibt es auch Communitybenchmarks zu CP77, die teils bis ins Jahr 2020 zurückreichen und einen guten Überblick quer durch diverse Hardware vermitteln und die Entwicklung bei CP77 aufzeigen.

Aktuell im PCGH nimmt man sich einer Problematik mit manchen AMD CPUs in CP77 an, wo durch eine kleine selbst durchführbare Änderung teils erhebliche Performancesteigerungen erreichen lassen sollen, was aufzeigt, dass noch reichlich Potential in der Optimierung von CP77 steckt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zogger CkY
Tornavida schrieb:
Ich vermisse die Angaben zum Arbeitsspeicher welcher gerade im CPU Limit ein nicht zu vernachlässigender Faktor ist und das Ganze aus einer anderen und interessanten Richtung hätte beleuchten können wenn man verschiedene Setups getestet hätte. Diese Angabe gehört bei einem Test immer genannt.
Habe ich Ergänzt, Da es aber nur ein H510 Mainboard ist läuft der Ram nur maximal auf 2666mhz . Da mir kein besseres Mainboard zur verfügung steht kann ich nicht schauen wie sich die Ramgeschwindigkeit da auswirkt.
Tornavida schrieb:
Das eine 3 Gen. alte 4c CPU in Verbindung mit einer aktuellen potenten GPU wie der 4070 insbesondere in CP77 keine Bäume ausreisst dürfte anhand zahlreicher Tests bekannt sein. Auf CB und ich mein auch auf PCGH gibt es auch Communitybenchmarks zu CP77, die teils bis ins Jahr 2020 zurückreichen und einen guten Überblick quer durch diverse Hardware vermitteln und die Entwicklung bei CP77 aufzeigen.

Deswegen hab ich die Testreihe mit dem 3770k komplett verworfen das wäre dann vollends ausgeartet...


Im Zusammenspiel mit einer 3060 12gb sieht es im übrigen ähnlich aus wie bei der 4070 ergebnisse kann ich bei ausreichendem Interesse Nachreichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini, andi_sco und Tornavida
Gut das erklärt Einiges.

Ein 5600x mit 3600er CL16 Ram, auch keine Monster CPU und für kleines Geld erhältlich, und einer 4070 ist gut für über 130FPS im Schnitt incl. RT Overdrive mit FG in FHD im CP77 Benchmark. Meinst du das ist schlecht oder schlecht spielbar?
Ich meine nicht und dein Test spiegelt m.E. lediglich die Leistungsfähigkeit deines Testsetups in diesem Game wider und ja selbst mit Diesem hast du dank DLSS und FG eine Performance Verbesserung wenn vielleicht auch keine Befriedigende. Aber es geht auch deutlich schlechter bis unspielbar.
 
  • Gefällt mir
Reaktionen: zogger CkY
Theoretisch müsste ich ja nur das Mobo Tauschen auf einen aktuelleren Chipsatz. Aber es lohnt sich nicht dafür das Geld auszugeben.
Ein 5600X spiel aber auch nicht in der gleichen Leistungsklasse wie der i5-10400K sind so um die 20-30% mehr Leistung. Die Frage ist ob diese 20-30% schon einen Unterschied machen. Hab hier auch Nichts wo ich einfach einen Schnellen Gegentest machen kann da mein 5800X3D inkusive graka in einem Hardtube system steckt, Daher ist einem Quertauschen nicht drinne.
 
zogger CkY schrieb:
Im Zusammenspiel mit einer 3070 12gb sieht es im übrigen ähnlich aus wie bei der 4070 ergebnisse kann ich bei ausreichendem Interesse Nachreichen.
:daumen: - wäre zumindest für Aufrüster interessant
 
  • Gefällt mir
Reaktionen: kryzs und zogger CkY
Die 12GB 3070 ;-) ??? Ja, wäre interessant, sofern vorhanden.
Vermutlich ist die 12GB 3060 gemeint?
 
  • Gefällt mir
Reaktionen: zogger CkY
Schöner Artikel. Vielen Dank.



Ergo, es bringt nichts bei älteren PCs bzw. CPUs explizit auf eine RTX 4000er zu setzen, in der Hoffnung, dass FG hier mangelnde CPU Leistgung kompensieren kann.
Ergänzung ()

zogger CkY schrieb:
Ich hoffe, liebe Boardies, ihr nehmt mich nicht zu sehr auseinander.
Na du ahnst es ja schon. Da wird wahrscheinlich (leider) bestimmt noch etrwas kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN und zogger CkY
Vielen Dank für den Test! Solche Fragen hatte ich selbst auch schon und dieser Überblick hilft da sehr. :daumen: :love:

zogger CkY schrieb:
aber es ändert nichts daran dass DLSS der CPU deutlich mehr abverlangt.
Wie genau ist der Satz gemeint?
Denn die CPU Auslastung im CPU-Limit hat sich ja nicht groß geändert und auch die FPS nicht.

Vergleiche ich z.B. den hinteren Bereich im Benchmark um 54s, wo auch die native Auflösung in CPU Limit sitzt, dann sind die Frametimes hier sehr ähnlich mit DLSS....um die 20ms und etwas darüber....Wenn DLSS der CPU noch signifikant zusätzliche Arbeit aufhalsen würde, würden die Frametimes mit DLSS doch höher(schlechter) liegen als nativ(beides CPU-Limit).

Kleiner Hinweis zu den Plots....stell doch links unten im Plot die gleiche Skalierung ein...0-60ms oder so.... dann kann man die Frametimeverläufe besser vergleichen....oder noch besser die drei Verläufe mal in einen Plot packen. Denn so sieht es optisch so aus, als würde DLSS stärker schwanken, aber die Peaks sind unter 30ms und bei Nativ fast bei 60.
zogger CkY schrieb:
Den Aufmerksamen ist aber sicher schon aufgefallen, wie im letzten Drittel beim Aussenbereich vom Benchmark die CPU Last steigt. Die Darstellung von bewegten NPCs kostet CPU Leistung, also wie verhält sich das jetzt nun ingame? Einmal ein Savegame geladen und ein kurzer 30 Sekunden Rundgang um Corpo Plaza..
Wieder mal ein Beispiel für einen weiteren Benchmark, der vor allem die GPU belastet und wenig taugt um die CPU-intensiven Szenen im eigentlichen Spiel abzubilden.:(
zogger CkY schrieb:
DLSS ist nicht das besagte Allheilmittel für mehr FPS, ebenso wie Frame Generation, vor allem da beide Technologien im Zusammenspiel den Inputlag vergrößern.
Da wäre es sehr interessant, wenn es dazu gute Messungen vom button to pixel delay geben würde...eventuell gibt es die schon irgendwo wo auch ein CPU Limit berücksichtigt wird, aber ich kann mich nicht erinnern sowas bei den Quellen meines Vertrauens gesehen zu haben.
zogger CkY schrieb:
Inputlag ist bei DLSS und Framgeneration bekannt, aber im CPU-Limit hatten mache Inputs einen wahrnehmbaren Mikroruckler zur Folge. Es war nicht zu 100% reproduzierbar aber beim ausweichen von Passanten kam es häufiger vor, Obwohl Nvidia Refelex aktiviert war.
Das ist sehr interessant.....sowas ist ja ein handfester Nachteil für das Spielgefühl.
Das es generell eher Mikroruckler(vorsicht! hier werden gleich die schlauen Leute einfallen und uns korrigieren, dass Mikroruckler nur auf Multi-GPU Systemen so genannt werden dürfen) bei Kameradrehungen gibt, gilt für einige Spiele, aber mir war der Zusammenhang mit DLSS neu.
 
  • Gefällt mir
Reaktionen: zogger CkY
@Baal Netbeck

Ich verstehe seine Aussage so

Dlss verringert ja die GPU Last und dann kann die CPU mehr frames berechnen..

Im Limit kann sie das aber nicht deutlich mehr weil einfach keine Kapazitäten frei sind.

Aber in dem Bereich wo die CPU noch Reserven hat wird sie natürlich durch dlss mehr gefordert.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und zogger CkY
ErichH. schrieb:
Die 12GB 3070 ;-) ??? Ja, wäre interessant, sofern vorhanden.
Vermutlich ist die 12GB 3060 gemeint?
ja ich meine die 3060 12Gb hab es korrigiert
Casillas schrieb:
Schöner Artikel. Vielen Dank.



Ergo, es bringt nichts bei älteren PCs bzw. CPUs explizit auf eine RTX 4000er zu setzen, in der Hoffnung, dass FG hier mangelnde CPU Leistgung kompensieren kann.

Na du ahnst es ja schon. Da wird wahrscheinlich (leider) bestimmt noch etrwas kommen.
So würde ich es nicht sagen, also DLSS kann schon bedingt helfen
naja solange die Kritik Konsruktiv ist ist es ja halb so wild. Und wurde ja im Artikel zur 4060 erwähnt also so viel hab ich dann nicht falsch gemacht :D
Baal Netbeck schrieb:
Vielen Dank für den Test! Solche Fragen hatte ich selbst auch schon und dieser Überblick hilft da sehr. :daumen: :love:


Wie genau ist der Satz gemeint?
Denn die CPU Auslastung im CPU-Limit hat sich ja nicht groß geändert und auch die FPS nicht.

Vergleiche ich z.B. den hinteren Bereich im Benchmark um 54s, wo auch die native Auflösung in CPU Limit sitzt, dann sind die Frametimes hier sehr ähnlich mit DLSS....um die 20ms und etwas darüber....Wenn DLSS der CPU noch signifikant zusätzliche Arbeit aufhalsen würde, würden die Frametimes mit DLSS doch höher(schlechter) liegen als nativ(beides CPU-Limit).

Kleiner Hinweis zu den Plots....stell doch links unten im Plot die gleiche Skalierung ein...0-60ms oder so.... dann kann man die Frametimeverläufe besser vergleichen....oder noch besser die drei Verläufe mal in einen Plot packen. Denn so sieht es optisch so aus, als würde DLSS stärker schwanken, aber die Peaks sind unter 30ms und bei Nativ fast bei 60.

Wieder mal ein Beispiel für einen weiteren Benchmark, der vor allem die GPU belastet und wenig taugt um die CPU-intensiven Szenen im eigentlichen Spiel abzubilden.:(

Da wäre es sehr interessant, wenn es dazu gute Messungen vom button to pixel delay geben würde...eventuell gibt es die schon irgendwo wo auch ein CPU Limit berücksichtigt wird, aber ich kann mich nicht erinnern sowas bei den Quellen meines Vertrauens gesehen zu haben.

Das ist sehr interessant.....sowas ist ja ein handfester Nachteil für das Spielgefühl.
Das es generell eher Mikroruckler(vorsicht! hier werden gleich die schlauen Leute einfallen und uns korrigieren, dass Mikroruckler nur auf Multi-GPU Systemen so genannt werden dürfen) bei Kameradrehungen gibt, gilt für einige Spiele, aber mir war der Zusammenhang mit DLSS neu.
Genau wegen dem verhalten Vom Ingame Benchmark hab ich noch ein Savegame benutzt.

Und ja auf die unterschiede bei den Frametimes bin ich bisher noch nicht eingegangen, da wird noch ein Nachtrag kommen. aber kann ja etwas spoilern zumindest was DLSS bei den 4 kernen im Ingame angeht :
ingame.png
ingame2.png
ingame3.png
scaled.png


Die Frametimes werden mit DLSS schlechter und vorallem viel viel unruhiger
Ergänzung ()

xxMuahdibxx schrieb:
@Baal Netbeck

Aber in dem Bereich wo die CPU noch Reserven hat wird sie natürlich durch dlss mehr gefordert.
Genau aber da wo die CPU keine Reserven mehr hat Bringt es einfach nichts mehr und Selbst Framegeneration hat da seine Eigenheiten im CPU limit

Nativ/Performace/ Quality
framegane nativ.png
framegen Perfor.png
framegen qualli.png


achtet mal darauf wie die Min FPS bei Performance schlechter sind
und die CPU Auslastung einfach im Maximum hängt selbst mit 6 Kernen steigt die CPU auslastung an.

Nativ/Performance/ Qualli
6c framegen nativ.png
6c frame gen per.png
6c framegen Qualli.png


und auch hier werden die Min Fps wieder schlechter bei Performace im Gegensatz zu Qualität. Also DLSS hat massive Anforderungen an die CPU

und ich will ja nichts sagen aber es juckt mich ja schon das ganze mit einem 13400(F) zu testen ^^ DDR4 board und CPU sind ja "nur" 360€... ( Böse gedanken xD )
 

Anhänge

  • framegen Nativ.png
    framegen Nativ.png
    67,7 KB · Aufrufe: 79
  • Framegen P.png
    Framegen P.png
    66,7 KB · Aufrufe: 76
  • framegen Q.png
    framegen Q.png
    65,7 KB · Aufrufe: 76
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN und Baal Netbeck
@zogger CkY

Danke für den ausführlichen Einblick in den aktuellen Stand der Technik.

Das einzige Game, was mir tatsächlich aktuell einfällt, wo FG und DLSS3 richtig "knallen" und selbst im CPU Limit "Wunder" bewirken, ohne das Input Lag zu schlimm werden zu lassen, ist tatsächlich der MS Flight Simulator.

Was die "richtig" machen und die anderen "falsch", kann ich aber nicht sagen, da ich es nicht weiß. Selbst das MS die Frames gar nicht rendert sondern nur behauptet, sie wären da, könnte ich mir vorstellen.

Wer setzt sich aber bitte schön mit einer Hochgeschwindigkeitskamera vor einen Bildschirm, nimmt dann Programme die schauen, ob es nicht das gleiche Bild einfach nur 2mal hintereinander wird und zählt danach die Bilder pro Sekunde?

Nvidia dachte ja auch, niemand misst ihren Stromverbrauch nach, der von Tools angegeben wird. :evillol:

In 2-3 Jahren, können wir dann evtl. alle zusammen abschätzen, ob sich diese Technologie auch für langsamere CPUs lohnt.

mfg
 
  • Gefällt mir
Reaktionen: zogger CkY
zogger CkY schrieb:
Die Frametimes werden mit DLSS schlechter und vorallem viel viel unruhiger
Da muss ich sagen...das sehe ich in deinen Messungen nicht.
Mit Framegen mag es komisch sein, aber die 0,1% und 1% lows werden mit DLSS besser.
zogger CkY schrieb:
achtet mal darauf wie die Min FPS bei Performance schlechter sind
Ja, aber wenn "Min FPS" dem schlechtesten Frametime entsprechen, dann zweifle ich da stark an der Reproduzierbarkeit der Messungen...du zeigst nur je einen Durchlauf, der stark vom Zufall abhängen wird.
Und bei den ingame Messungen sind die Min FPS mit DLSS sogar deutlich besser.

Da reicht meiner Meinung nach weder die Messdauer von 30s, noch die Anzahl von einer Messung pro Datenpunkt....fünf Messungen mit je 50s+ klingen zuverlässiger....CP2077 hat auch große Schwankungen in der crowd/Auto-Dichte...ausweichen macht einen teils großen unterschied, wie du selbst gesagt hast... die Tests ingame halte ich für sehr wichtig, aber auch sehr fehleranfällig.

Musst du jetzt nicht anfangen massiv Zeit zu investieren, aber ich würde da jetzt nicht zu viel in die Min FPS und low frametimes hineininterpretieren.
 
  • Gefällt mir
Reaktionen: zogger CkY
Baal Netbeck schrieb:
CP2077 hat auch große Schwankungen in der crowd/Auto-Dichte...ausweichen macht einen teils großen unterschied, wie du selbst gesagt hast... die Tests ingame halte ich für sehr wichtig, aber auch sehr fehleranfällig.
Deswegen habe ich nach jedem laden des Savegames ca 1 minute gewartet das die NPCs sich einpendeln. Autosave ist auch so ein Faktor der mir viele Messungen einfach Versaut hat..
Baal Netbeck schrieb:
Da reicht meiner Meinung nach weder die Messdauer von 30s, noch die Anzahl von einer Messung pro Datenpunkt....fünf Messungen mit je 50s+ klingen zuverlässiger...
es zeigt sich auch im Cp77 Benchmark welcher bei weitem nicht so CPU-lastig ist wie jetzt ein ingame Run.
Außerdem habe ich nicht nur einen Bench gemacht, ich habe lediglich hier nur dejenigen genommen welche am besten den Durchschnitt repräsentieren. Aufgrund der Menge an Durchläufen habe ich natürlich auch welche welche absolut unbrauchbar sind.

Baal Netbeck schrieb:
Da muss ich sagen...das sehe ich in deinen Messungen nicht.
Mit Framegen mag es komisch sein, aber die 0,1% und 1% lows werden mit DLSS besser.
Im Vergleich zu nativ werden sie auch besser, was auch Im Fazit den Unterschied zwischen spielbar und unspielbar macht. Im Vergleich zwischen Quality und Performance schneidet aber Performance (minimal ) schlechter ab.
Baal Netbeck schrieb:
Ja, aber wenn "Min FPS" dem schlechtesten Frametime entsprechen, dann zweifle ich da stark an der Reproduzierbarkeit der Messungen...du zeigst nur je einen Durchlauf, der stark vom Zufall abhängen wird.
Und bei den ingame Messungen sind die Min FPS mit DLSS sogar deutlich besser.
Die Min FPS sind auch im CP77 Benchmark besser mit DLSS und dieser ist sehr wohl Reproduzierbar. Die Ingame Benchmarks sind deswegen Kurz gehalten, da Corpo Plaza der Worst Case ist. Es ist einfach nur ein Sanity Check. Schon im CP77 Benchmark zeigt sich, dass DLSS eine Höhere CPU-Last verursacht, und im CPU-Limit der Vorteil von mehr FPS in Performance einfach nicht mehr gegeben ist.
Ja DLSS verbessert die Min-FPS, aber wenn man schon im CPU-Limit ist ist ein Wechsel eventuell ratsam

Baal Netbeck schrieb:
Musst du jetzt nicht anfangen massiv Zeit zu investieren, aber ich würde da jetzt nicht zu viel in die Min FPS und low frametimes hineininterpretieren.
Nö die zeit habe ich nicht es Zeigt ja, das auch DLSS seine Grenzen hat, aber trotzdem, und gerade auf älteren Plattformen fuktioniert. Die 4 Kerne sind ja ein Extremfall, aber trotzdem ist es mit DLSS Spielbar.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
xxMuahdibxx schrieb:
Im Limit kann sie das aber nicht deutlich mehr weil einfach keine Kapazitäten frei sind.
xxMuahdibxx schrieb:
Aber in dem Bereich wo die CPU noch Reserven hat wird sie natürlich durch dlss mehr gefordert.
Stimmt, es ist auch logisch, dass die zusätzlichen Daten zu den Bewegungsvektoren sozusagen mehr Drawcalls erzeugt. Ich finde nur, dass man das so schlecht abschätzen kann, da mehr FPS auch mehr CPU Last erzeugen...so sehe ich zwar in den 6C Messungen mehr CPU Auslastung mit DLSS, aber da gab es auch gleichzeitig mehr FPS....ist schwer zu trennen.
zogger CkY schrieb:
es zeigt sich auch im Cp77 Benchmark welcher bei weitem nicht so CPU-lastig ist wie jetzt ein ingame Run.
Sehe ich ein.
zogger CkY schrieb:
Außerdem habe ich nicht nur einen Bench gemacht, ich habe lediglich hier nur dejenigen genommen welche am besten den Durchschnitt repräsentieren. Aufgrund der Menge an Durchläufen habe ich natürlich auch welche welche absolut unbrauchbar sind.
Das ist doch ein gutes Vorgehen.... Die Gefahr bei sowas ist immer, dass man den eigenen Bias bei der Auswahl der Messungen unterbewusst einfließen lässt, aber es ist natürlich um ein vielfaches besser als einfach nur einzelne Messungen zu machen und die zu vergleichen.

Auch schön zu hören, dass du auf die NPCs geachtet hast. :daumen:
zogger CkY schrieb:
Im Vergleich zwischen Quality und Performance schneidet aber Performance (minimal ) schlechter ab.
Ja, das ist auffallend.
zogger CkY schrieb:
Schon im CP77 Benchmark zeigt sich, dass DLSS eine Höhere CPU-Last verursacht, und im CPU-Limit der Vorteil von mehr FPS in Performance einfach nicht mehr gegeben ist.
Dazu hatte ich was an @xxMuahdibxx geschrieben...ich bin mir nicht sicher, wie viel CPU Last durch die zusätzlichen Daten erzeugt wird, und wie viel durch öftere Drawcallanfragen wegen den gestiegenen FPS.

Aber eine höhere CPU-Last durch DLSS ist definitiv logisch.
 
  • Gefällt mir
Reaktionen: zogger CkY
Baal Netbeck schrieb:
Das ist doch ein gutes Vorgehen.... Die Gefahr bei sowas ist immer, dass man den eigenen Bias bei der Auswahl der Messungen unterbewusst einfließen lässt, aber es ist natürlich um ein vielfaches besser als einfach nur einzelne Messungen zu machen und die zu vergleichen.

Auch schön zu hören, dass du auf die NPCs geachtet hast. :daumen:
Deswegen habe ich Bewusst mehr Fokus auf den den Ingame Benchmark gelegt weil den kann ich Tatsächlich nicht Beeinflussen ^^
In der Hinsicht der NPCs ist CP77 aber auch teilweise Grausam ^^ und es war Ätzend xD Einstellungen Überprüfen, Spielstand Laden, Warten, Benchen, Schauen ob es soweit Passt. Neuladen, und wieder Warten xD
Ingame war da einfacher ^^ Einstellen, laufen lassen, Überprüfen ob die Einstellungen Passen und Dann erst den Bench laufen lassen.
Baal Netbeck schrieb:
Ja, das ist auffallend.
Denke mal das ist auch der Grund warum ich eine Erwähnung, seitens Jan, im 4060 Test bekommen habe :D
Bezüglich DLSS 2 ebenfalls noch anzumerken ist: Wie ComputerBase-Leser zogger CkY in seinem Leserartikel Verhalten von DLSS und Framegeneration im CPU-Limit bei Cyberpunk 2077 im Juni dokumentiert hat, setzen Leistungszuwächse bei den FPS durch DLSS 2 voraus, dass der Einsatz den Flaschenhals nicht auf den Prozessor legt – gerade ältere Systeme mit langsameren CPUs können auch einer GeForce RTX 4060 derartige Zuwächse (im Testsystem der Redaktion steckt ein Ryzen 9 7950X3D) verwehren.
Also so viel kann ich ja nicht Falsch gemacht haben :D ( Denke auch mal dass es Gegengeprüft wurde ^^ )
 
  • Gefällt mir
Reaktionen: Baal Netbeck und xxMuahdibxx
Wenn ich lese - Frame Generation erhöht zwar die Frames - aber am CPU Limit ändert es nichts...
Sorry was hast du denn erwartet?
Frame Generation läuft im Idealfall nur auf der GPU - und soll nur die Frames erhöhen.. Was es auch im CPU Limit macht.

Wenn dann könnte nur DLSS was am CPU Limit ändern. Wobei eventuell auch nicht - denn der CPU ist es im Zweifel egal in welcher Auflösung du nachher renderst - sie muß ja die Geometrie Daten liefern. Da könnte ich mir vorstellen das das Auflösungsunabhängig ist bzw. die Leistungskosten minimal sind.

DX 12 konnte das CPU Limit verschieben im Vergleich zu DX 11 weil man weniger (Meta) Daten braucht um das Bild zu rendern. Sprich die CPU musste da weniger tun und hatte damit mehr Zeit Ressourcen um Geometrie Daten Richtung GPU zu schaufeln.

Bezüglich deiner Auslastung der GPU. Was hast du erwartet? Frame Generation wird die Auslastung erhöhen (aber in kleinem bis sehr kleinem Rahmen). DLSS wird sie senken da man deutlich weniger Bildpunkte berechnet und skalieren deutlich "billiger" ist wie wenn das Bild in nativer Auflösung gerendert wird.

Aber eben nur auf der GPU.
Und noch was. Nicht jedes CPU Limit ist gleich...
Wird dein CPU Limit ausgelöst durch sehr viele NPCs (KI) ist das was anderes wie wenn es durch sehr sehr viele statische Objekte (CPU muss also viel Geometrie Daten berechnen bereitstellen)...

Trotzdem danke für den Test. Jetzt gibt es mal konkrete Zahlen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und ErichH.
Zurück
Oben