DLSS reduziert den Strombedarf?

Amiga500

Vice Admiral
Registriert
Dez. 2005
Beiträge
6.193
Kann es sein das DLSS den Strombedarf reduziert?

Ich habe Crysis 2 Remastered auf sehr hoch ohne DLSS mit Framelimiter auf 80 fps mittels GPU zu mal gespielt.
Hatte einen Verbrauch von 280 Watt max und durchschnittlich etwa 230 w

Heute habe ich Spiel nochmal gespielt dabei DLSS aber aktiviert.
Jetzt komme ich max nur noch auf 225 und durschnittlich 170 Watt bei GPU- Z

Das ist eine heftige Reduzierung des Energiebedarfs.

Also reduziert DLSS den Strombedarf !? Dann wäre es ja nicht nur rein von der Bidlquali/Leistung Vorteilhaft sondern auch noch vom Energiebedarf.
 
Amiga500 schrieb:
Also reduziert DLSS den Strombedarf !?
DLSS reduziert den Rechenaufwand für ein Bild dadurch, dass weniger Pixel berechnet werden müssen. Der Rest wird mit weniger Energieaufwand interpoliert.
Wenn man wie du mit Framelimiter auf 80fps DLSS nutzt, ergibt sich dadurch natürlich ein niedrigerer Stromverbrauch. Alternativ ohne eben mehr fps. Ob DLSS ohne Limiter auch zu weniger Verbrauch führt kannst du ja selbst herausfinden und deine Ergebnisse mit uns teilen.
 
  • Gefällt mir
Reaktionen: Amiga500, Geckoo, McFritte und 2 andere
mit dlss render die gpu mit geringerer auflösung. mit frame-limiter hat sie weniger zu tun und verbraucht weniger strom - das ist aber keine neue erkenntnis :)
 
Hast du auch verglichen wie viele FPS zu mit und ohne DLSS hast?
Und wie schauen die Taktraten aus?

Evtl limitiert auch einfach nur die CPU wenn DLSS aktiv ist, und die GPU hat weniger zu tun.
Durch DLSS berechnet die GPU das ganze ja in einer niedrigeren Auflösung und kann dadurch mehr Bilder liefern, wenn dann aber die CPU nicht mehr hinterherkommt, dann könnte das die Erklärung sein.
 
DLSS ist für mich ein bisschen der Eco-Modus der Grafikkarte :)
Weniger Stromverbrauch und kühlere Karte (wenn man denn einen frame-limiter nutzt)
 
Ohne framelimiter bei DLSS hätte ich natürlich auch mehr FPS das ist klar da würde ich in etwa bei 120 fps liegen.

Da ich aber immer mit Framelimiter auf 80-90 fps spiele , muss ich sagen das DLSS hier ja dann sogar noch den Effekt des geringeren Strombedarfs mit sich bringt. Bin begeistert
 
  • Gefällt mir
Reaktionen: Trinoo
Finde ich jetzt nicht wirklich erstaunlich, sondern konsequent logisch.

Der Titel ist trotzdem irreführend: Nicht DLSS reduziert den Strombedarf, sondern der Frame Limiter.
DLSS verstärkt die Wirkung nur noch, genauso übrigens wie FSR.
 
  • Gefällt mir
Reaktionen: PeriQue1337
Spezifische Größe, dann kann man es besser bewerten. Mit DLSS sinkt Watt pro berechnetem Bild. (bei konstanter Bildrate)
 
Das ist doch klar. Der Aufwand zur Berechnung sinkt. Da das nicht in mehr FPS umgewandelt werden kann (Framelimit an), muss die Karte eben weniger leisten.
Wenn du deine Auflösung auf 1280x720 stellst und die FPS limitierst, denn langweilt sich eine moderne Karte ebenfalls und verbrät weniger Strom.

Aber du kannst natürlich immer nur eines haben, entweder mehr FPS ODER weniger Verbrauch. Von daher passt die Behauptung, dass DLSS die Bildqualität und die Performance erhöht und gleichzeitig den Verbrauch senkt so nicht. Allenfalls in der Mitte treffen könnte man sich.
 
  • Gefällt mir
Reaktionen: Wolfpac
Ist das nicht eigentlich logisch?!
Weniger leistungsbedarf->weniger leistungsaufnahme.

Also manchmal frag ich mich echt....
 
  • Gefällt mir
Reaktionen: PeriQue1337
Mumusud schrieb:
DLSS ist für mich ein bisschen der Eco-Modus der Grafikkarte :)
Weniger Stromverbrauch und kühlere Karte (wenn man denn einen frame-limiter nutzt)
Ohne Framelimiter dürfte DLSS den Strombedarf eher erhöhen, da bei insgesamt höheren Frameraten (DLSS vs. ohne DLSS) die CPU mehr zutun bekommt.
Entsprechend halte ich das mit dem Eco-Modus für etwas weit hergeholt, das würde noch eher auf den Frame-Limiter passen, aber selbst das passt nicht so richtig (was wenn das Spiel die im Frame-Limiter gesetzte Grenze garnicht erreicht.)

Ein "richtiger" Eco-Modus wäre untertakten +optional untervolten.
 
Mumusud schrieb:
DLSS ist für mich ein bisschen der Eco-Modus der Grafikkarte :)

Verwende es fast auch ausschließlich dafür, im höchsten Modus erkennt man meist bei DLSS oder FSR kaum einen Unterschied aber in 4K macht das bei mir auch gerne mal 30-60W aus im 60FPS Limit.
 
Amiga500 schrieb:
Ohne framelimiter bei DLSS hätte ich natürlich auch mehr FPS das ist klar da würde ich in etwa bei 120 fps liegen.

Da ich aber immer mit Framelimiter auf 80-90 fps spiele , muss ich sagen das DLSS hier ja dann sogar noch den Effekt des geringeren Strombedarfs mit sich bringt. Bin begeistert

Das liegt nicht an DLSS, sondern am Verhältnis zwischen Erreichten FPS und benötigten FPS.

Wenn du doppelt so viele FPS erreichst wie benötigt, kannst du den Stromverbrauch grob um die Hälfte reduzieren.

DLSS hilft dir nur dieses Ziel zu erreichen, ist aber keinesfalls die Ursache für geringeren Stromverbrauch.

Du kannst mit FPS limit auch die Auflösung senken oder Details reduzieren. hat genau den gleichen Effekt.
 
@Xes Ich schrieb ja auch extra mit aktivierten framelimiter ;)

Aber auch ohne fps limit ist der Verbrauch etwas niedriger, gerade Mal in rdr2 getestet.
4k, kein framelimiter, kein CPU Limit.
Der Verbrauch bei der Grafikkarte ist mit dlss immer niedriger, ca 20w auf qualität und 30w bei Performance. Der Verbrauch der cpu bleibt dabei gleich.
Mag aber natürlich anders aussehen wenn man z.b. einen schnellen Shooter mit hohen fps und anderer Auflösung spielt.

Eco-modus war jetzt auch nicht ganz so ernst gemeint von mir ;)
Da ich aber die fps eh immer begrenze, merkt man das weniger an Verbrauch und damit die geringere Wärmeentwicklung schon sehr.
 
Tulol schrieb:
Ist das nicht eigentlich logisch?!
Weniger leistungsbedarf->weniger leistungsaufnahme.

Also manchmal frag ich mich echt....
Ähm wenn du ein Spiel mit dem selben Detailgrad den selben Frames mit und ohne DLSS nutzt und einen Unterschied von fast 60 Watt hast , dann frage dich gern weiter. ..
Ergänzung ()

charly_ schrieb:
Finde ich jetzt nicht wirklich erstaunlich, sondern konsequent logisch.

Der Titel ist trotzdem irreführend: Nicht DLSS reduziert den Strombedarf, sondern der Frame Limiter.
DLSS verstärkt die Wirkung nur noch, genauso übrigens wie FSR.
Nun, dennoch hat man bei dem selben Spiel mit den selben Detailgrad und den selben Frames einen gewaltigen Unterschied an Strombedarf zwischen DLSS und ohne ...
 
Die tatsache, dass du so viel Strom "einfach so" sparen kannst korreliert eben 1:1 mit der Tatsache, dass du "einfach so" deutlich mehr FPS bei selben Detailgrad bekommst.

DLSS steigert eben die Renderingeffizienz. Ob du die gewonnene Effizienz nutzt, um den Detailgrad weiter zu erhöhen, die FPS zu steigern oder Strom zu sparen bleibt eben dir überlassen.
 
  • Gefällt mir
Reaktionen: foo_1337
Amiga500 schrieb:
Nun, dennoch hat man bei dem selben Spiel mit den selben Detailgrad und den selben Frames einen gewaltigen Unterschied an Strombedarf zwischen DLSS und ohne ...
Ja, aber das ist wie geschrieben doch völlig logisch, weil eben die Belastung abnimmt.
Außerdem ist DLSS ja nicht völlig "umsonsonst". Es gibt durchaus Unterschiede und Verluste. Je nach Umsetzung und Spiel können die mal größer und mal kleiner sein, aber sie sind immer da. Denselben Detailgrad hat man daher nicht. Das wäre dann auch ein Wunder und fast wie ein Perpetuum mobile. Geht einfach nicht.

Es ist quasi das gleiche wie Videokompression. Du kannst bei gleicher Größe "mehr Qualität" haben oder aber bei gleicher Qualität weniger Dateigröße oder eine Mischung aus beidem. Wenn die Kompression gut gemacht wird, ist der sichtbare Unterschied sehr gering oder fast unsichtbar und die frei gewordenen Ressourcen können nach Belieben aufgeteilt werden.

Jeder berechnete Frame kostet Energie, die von der Komplexität des Frames abhängt. Addiert man die "Kosten" aller berechneten Frames pro Zeiteinheit, so kommt man auf den Verbrauch der Karte. Reduziert man nun die Komplexität (in diesem Fall durch DLSS), wird die Summe der Kosten kleiner. Da aber die Karte ohne Limiter diese freigewordenen Ressourcen einfach in mehr Frames pro Zeiteinheit investiert, bleibt die Summer am Ende gleich. Wenn du jetzt die Karte bremst, weil du ein Framelimit vorgibst, bleiben die Ressourcen ungenutzt und siehe da, der Verbrauch sinkt.
 
Moep89 schrieb:
Außerdem ist DLSS ja nicht völlig "umsonsonst". Es gibt durchaus Unterschiede und Verluste. Je nach Umsetzung und Spiel können die mal größer und mal kleiner sein, aber sie sind immer da. Denselben Detailgrad hat man daher nicht.
So einfach ist das nicht. Du hast eine geringere Ursprungsauflösung, aber dlss ist eine sehr elegante Methode eine höhere Auflösung zu approximieren. Das ist eben nicht wie Videokompression bei der zwangsläufig Details verloren gehen. Es ist ein Modell, das mit 16k Material trainiert wurde. Solang du also nicht in 16k renderst, ist das native Material ohne dlss nicht in jeder Beziehung überlegen. Und dlss ist noch sehr jung. In wenigen Jahren wird es aus 1440p 4k besser rendern als nativ ohne dlss. Du musst es dir wie einen guten Maler vorstellen, der weiß, was zu sehen sein soll, der ergänzt auch in einem 480p Bild die Details in beliebiger Auflösung, solange er sie schon Mal gesehen hat.
 
Das ist doch kompletter Nonsense.
Wenn ich die fps begrenze und Dlss einschalte braucht es ja logischerweise weniger Energie diese fps Zahl zu erreichen.
Und das konntest du dir vorher nicht denken?

Dlss ist übrigens nie so gut wie nativ, alles schon getestet.
 
Zurück
Oben