News Nvidia GeForce: Treiber-Bug führt zu hoher Leistungsaufnahme ab 144 Hertz

MichaG

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Juli 2010
Beiträge
8.645
Wer die News nicht lesen kann, dem kann ich auch nicht helfen... Übrigens zeigen einige Kommentare hier, dass die Sache nicht ganz so klar ist, wie einige das darstellen. Warten wir mal ab, was Nvidia draus macht.
 

Morrich

Banned
Dabei seit
Feb. 2012
Beiträge
3.946
Kann doch alles gar nicht sein. NVidia ist schließlich unfehlbar. Deren Treiber sind absolut top und haben niemals Fehler, während die Produkte der Konkurrenz totaler Schrott sind. Oder irgendwie so...
 

Pizza!

Commander
Dabei seit
Juli 2013
Beiträge
2.725
Bei mir auch, allerdings durch Werks OC läuft die bei 144 Hz Modus dann mit 925 MHz und 0,999 V. (nebenbei dann dauerhaft ca. 61°C im Idle)

Interessant war, hab 120 Hz eingestellt dann LoL gestartet, automatische Umstellung auf 144 Hz und dann LoL beendet und ist auf 144 Hz geblieben obwohl in der Nvidia Systemsteuerung immer noch 120 Hz steht.

Durch einen Tipp dann unter 3D Einstellungen "Bevorzugte Aktualisierungsrate" gefunden... auf Anwendungsgesteuert umgestellt, passt nun.

Treiber 358.87 ändert leider nix am Problem.
 

Shadow Complex

Lt. Commander
Dabei seit
Feb. 2014
Beiträge
1.371
Und warum schreibt ihr NICHTS davon in die News? :rolleyes:
Nvidias Presseabteilung bestätigte den Umstand gegenüber PC Perspective und sprach von einem Fehler in der Art und Weise „wie unsere GPU Frequenzen für G-Sync und sehr hohe Bildwiederholraten verwaltet“. Abhilfe soll ein kommender Treiber schaffen, wobei kein konkreter Termin genannt wurde.
Reicht das denn nicht?
 

ChrisMK72

Commodore
Dabei seit
Aug. 2012
Beiträge
5.118
Ich hab vor Jahren schon Berichte gelesen, wo es allgemein in etwa hieß, dass mit steigender FPS-Zahl ganz allgemein der Strombedarf sehr ansteigt.

Das war sogar so stark, dass ich seit dem immer fleißig meinen FPS limiter nutze.
In letzter Zeit hab ich den sogar meistens auf 50 FPS limitiert, weil ich oft in UHD spiele und da eh nur 60 Hz erreiche, obwohl mein Monitor ja unter Full HD auch 120 Hz kann.

Hab das Gefühl, die GPU wird auch nicht so warm, wenn man immer nur auf 50 FPS zockt.
Ganz nebenbei ist es noch angenehm immer eine sehr gleichmäßige FPS-Zahl zu haben, ohne große Schwankungen.

Ich hatte früher mal nach Informationen zum Stromverbrauch gesucht, als mit einem früheren System bei einem Benchmark die Sicherung des Netzteils rausgeflogen ist.
Weiß gar nicht mehr wie der hieß(der Benchmark). Irgendwas mit Fire, oder Burn oder so.


Danach bin ich doch vorsichtiger mit meiner Hardware umgegangen und mit diesem aktuellen System sogar sehr.
Hab meist nie über 80 Grad mit der GPU. Früher waren 80 grad noch niedrig ;-)




Aber um nochmal auf's Thema zurückzukommen:
War es nicht ganz allgemein so, dass mit steigender FPS Zahl der Stromverbrauch exponentiell, oder zumindest sehr deutlich ansteigt ?


Ich weiß nur dass ich damals kurz mal nach Infos gesucht hab und danach immer den FPS limiter drin hab.
Wozu mehr Strom verbauchen, als nötig, wenn mir 50 fps auch schon flüssig vorkommen !?
 

ChrisMK72

Commodore
Dabei seit
Aug. 2012
Beiträge
5.118
Is doch klar.

Aber wenn sync drin ist, ist ja z.B. entweder bei 60 fps schluss, oder bei 144(wegen der Hz Zahl).
Schon n Unterschied. Auch beim Stromverbrauch so weit ich mich erinnern kann. Is schon ewig lange her, wo ich da mal was zu gelesen habe.

Mal suchen.
Vielleicht find' ich nochmal die alten Berichte.


Edit:
Find's leider nicht mehr, auf die Schnelle.
Hab nur n kleinen Hinweis über frame rate target und Stromsparen gefunden, für ne getestete 680er damals, wo es hieß:
Die (funktioinierende!) Idee dahinter: Ihnen genügen für ein bestimmte Spiel 40 Fps (oder ein anderer Wert), Sie stellen ihn ein und die Karte taktet sich so weit herunter, dass dieser Wert gehalten werden kann. Das Resultat: Überschüssige Fps - vierstellige Zahlen in so manchem Spielemenü - werden vermieden, die Leistungsaufnahme sinkt drastisch.
Quelle:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/18/

Dieses EVGA Precision X(aus dem Bericht des Links) benutze ich seit damals.
Klappt eigentlich immer. Spart mir fleißig Strom :-)

Ich hab damals aber auch erschreckende Bilder gesehen aus einem Test, wo ich überrascht war, wie stark der Stromverbrauch einfach nur bei höheren FPS zum Teil anstieg. Das waren so Verbrauchstestbilder.
Find die aber nicht mehr. Is zu lange her.
 
Zuletzt bearbeitet:
H

hrafnagaldr

Gast
Ich hab vor Jahren schon Berichte gelesen, wo es allgemein in etwa hieß, dass mit steigender FPS-Zahl ganz allgemein der Strombedarf sehr ansteigt.
Im 3D Modus ja, das hatte SC2 zB auch im Menü, wo die Grafikkarten dann immer bei xxx fps Vollgas fuhren (würde ohne Limiter zB auch bei FTL so laufen, da kann man die Karte auch ordentlich hochdrehen lassen). Aber im 2D Modus ist das eigentlich nicht üblich.
 

Mooony

Cadet 3rd Year
Dabei seit
März 2015
Beiträge
44
Wie stellt man denn ein, dass in Spielen 144 Hz und beim Desktop Betrieb 120 Hz genutzt werden?
Ich habe in der Nvidia Systemsteuerung nur eine Einstellung zur Frequenz gefunden (neben der Auflösung) und auf 120 Hz eingestellt.
Wird die Frequenz beim Spielen nun automatisch auf 144 Hz getaktet?
 

Baya

Fleet Admiral
Dabei seit
Sep. 2007
Beiträge
19.545
Auf dem Desktop halt 120Hz und im Spielemenü auf 144Hz.

(GeForce Experience macht's automatisch - das doofe Programm ;) )
 

ChrisMK72

Commodore
Dabei seit
Aug. 2012
Beiträge
5.118
zB auch im Menü, wo die Grafikkarten dann immer bei xxx fps Vollgas fuhren (würde ohne Limiter zB auch bei FTL so laufen, da kann man die Karte auch ordentlich hochdrehen lassen).
Jo, bevor ich damals anfing, meine FPS immer zu checken, wußte ich auch nicht, dass in manchen Menüs FPS im tausender Bereich auflaufen.
Dank FPS limiter ist es sofort limitiert. Momentan auf 50. Reicht mir im Moment.

Ich benutze seit damals EVGA Precision X.
Da kann man auch seine eigene Lüfterkurve eingeben usw. .
Man muss das nicht zum Übertakten nutzen, man kann es auch gegenteilig einsetzen ;-)

Bild vom Programm:

P.s.: Keine EVGA-Werbung, da ich keine EVGA GPU nutze. Funktioniert auch mit anderen GPUs das Programm.
 
Zuletzt bearbeitet:

Smagjus

Rear Admiral
Dabei seit
Feb. 2011
Beiträge
5.878
Also bei welchem Szenario unter Win soll der zu hohe Takt anliegen? Habs mehrmals gelesen, bin wohl zu doof. :(
Du bist nicht zu doof. Es gibt Ausnahmen, wo die Karten unabhängig vom Treiber schon richtig takten. Du hast also schlicht und ergreifend Glück.

Irgendwo verständlich, schließlich braucht das Energie und "pseudo-theoretisch" das Panel doppelt so viel wie 60 Hz.
Das ist zum Glück nicht der Fall. Der Unterschied bei meinem Acer liegt z.B. nur bei 10% für den Monitor. Der Unterschied zwischen 120Hz und 144Hz bei meiner 780ti liegt allerdings bei gut 80%.

Aber um nochmal auf's Thema zurückzukommen:
War es nicht ganz allgemein so, dass mit steigender FPS Zahl der Stromverbrauch exponentiell, oder zumindest sehr deutlich ansteigt ?
Der Verbrauch der Karte steigt bis zu 120Hz (falls du das meintest) gar nicht an. Erst darüber steigt die Leistungsaufnahme sprunghaft, weil der Treiber nun die Taktrate der Karte erhöht.
 

a-u-r-o-n

Lieutenant
Dabei seit
Mai 2010
Beiträge
743

Lawnmower

Fleet Admiral
Dabei seit
Mai 2011
Beiträge
11.606
Habs eben mit meiner GTX 970 und einem Benq XL2720Z getestet mit einem Messgerät - der Verbrauch im Idle ist zwischen 120 und 144 Hz satte 50% höher; die Idle GPU Taktrate geht auch viel weiter runter bei < 144 Hz.
Unfassbar :freak:
 
Zuletzt bearbeitet:

Lawnmower

Fleet Admiral
Dabei seit
Mai 2011
Beiträge
11.606
Habe die Lösung gefunden: Weil die modernen Nvidia GPUs so brutal effizient sind, kann sich im Idle eine Eisschicht bilden (bei 24 Grad Zimmertemperatur). Deswegen hat Nvidia dieses Feature integriert um die Chips auf Betriebstemperatur zu halten. :D :lol:
 
Anzeige
Top