News Nvidia GeForce: Treiber-Bug führt zu hoher Leistungsaufnahme ab 144 Hertz

Wer die News nicht lesen kann, dem kann ich auch nicht helfen... Übrigens zeigen einige Kommentare hier, dass die Sache nicht ganz so klar ist, wie einige das darstellen. Warten wir mal ab, was Nvidia draus macht.
 
Kann doch alles gar nicht sein. NVidia ist schließlich unfehlbar. Deren Treiber sind absolut top und haben niemals Fehler, während die Produkte der Konkurrenz totaler Schrott sind. Oder irgendwie so...
 
Bei mir auch, allerdings durch Werks OC läuft die bei 144 Hz Modus dann mit 925 MHz und 0,999 V. (nebenbei dann dauerhaft ca. 61°C im Idle)

Interessant war, hab 120 Hz eingestellt dann LoL gestartet, automatische Umstellung auf 144 Hz und dann LoL beendet und ist auf 144 Hz geblieben obwohl in der Nvidia Systemsteuerung immer noch 120 Hz steht.

Durch einen Tipp dann unter 3D Einstellungen "Bevorzugte Aktualisierungsrate" gefunden... auf Anwendungsgesteuert umgestellt, passt nun.

Treiber 358.87 ändert leider nix am Problem.
 
derGrimm schrieb:
Und warum schreibt ihr NICHTS davon in die News? :rolleyes:

Nvidias Presseabteilung bestätigte den Umstand gegenüber PC Perspective und sprach von einem Fehler in der Art und Weise „wie unsere GPU Frequenzen für G-Sync und sehr hohe Bildwiederholraten verwaltet“. Abhilfe soll ein kommender Treiber schaffen, wobei kein konkreter Termin genannt wurde.

Reicht das denn nicht?
 
Ich hab vor Jahren schon Berichte gelesen, wo es allgemein in etwa hieß, dass mit steigender FPS-Zahl ganz allgemein der Strombedarf sehr ansteigt.

Das war sogar so stark, dass ich seit dem immer fleißig meinen FPS limiter nutze.
In letzter Zeit hab ich den sogar meistens auf 50 FPS limitiert, weil ich oft in UHD spiele und da eh nur 60 Hz erreiche, obwohl mein Monitor ja unter Full HD auch 120 Hz kann.

Hab das Gefühl, die GPU wird auch nicht so warm, wenn man immer nur auf 50 FPS zockt.
Ganz nebenbei ist es noch angenehm immer eine sehr gleichmäßige FPS-Zahl zu haben, ohne große Schwankungen.

Ich hatte früher mal nach Informationen zum Stromverbrauch gesucht, als mit einem früheren System bei einem Benchmark die Sicherung des Netzteils rausgeflogen ist.
Weiß gar nicht mehr wie der hieß(der Benchmark). Irgendwas mit Fire, oder Burn oder so.


Danach bin ich doch vorsichtiger mit meiner Hardware umgegangen und mit diesem aktuellen System sogar sehr.
Hab meist nie über 80 Grad mit der GPU. Früher waren 80 grad noch niedrig ;-)




Aber um nochmal auf's Thema zurückzukommen:
War es nicht ganz allgemein so, dass mit steigender FPS Zahl der Stromverbrauch exponentiell, oder zumindest sehr deutlich ansteigt ?


Ich weiß nur dass ich damals kurz mal nach Infos gesucht hab und danach immer den FPS limiter drin hab.
Wozu mehr Strom verbauchen, als nötig, wenn mir 50 fps auch schon flüssig vorkommen !?
 
DerBaya schrieb:
​Ich möcht's nimmer missen. Ist da jemand neidisch :) ?
Naja, Gameworks Titel werden zu 100% gemieden da sie ein Garant für schlechte Programmierung sind.
Dafür bekommt man dann hohe Takte bei 144Hz Monitor und verkrüppelte Speicher.
Aber solange das Konsumvieh trotzdem zugreift kann es NV ja egal sein.
 
DerBaya schrieb:
Weil fps und Hz was anderes ist.....

Is doch klar.

Aber wenn sync drin ist, ist ja z.B. entweder bei 60 fps schluss, oder bei 144(wegen der Hz Zahl).
Schon n Unterschied. Auch beim Stromverbrauch so weit ich mich erinnern kann. Is schon ewig lange her, wo ich da mal was zu gelesen habe.

Mal suchen.
Vielleicht find' ich nochmal die alten Berichte.


Edit:
Find's leider nicht mehr, auf die Schnelle.
Hab nur n kleinen Hinweis über frame rate target und Stromsparen gefunden, für ne getestete 680er damals, wo es hieß:
Die (funktioinierende!) Idee dahinter: Ihnen genügen für ein bestimmte Spiel 40 Fps (oder ein anderer Wert), Sie stellen ihn ein und die Karte taktet sich so weit herunter, dass dieser Wert gehalten werden kann. Das Resultat: Überschüssige Fps - vierstellige Zahlen in so manchem Spielemenü - werden vermieden, die Leistungsaufnahme sinkt drastisch.
Quelle:
http://www.pcgameshardware.de/Grafi.../Test-Geforce-GTX-680-Kepler-GK104-873907/18/

Dieses EVGA Precision X(aus dem Bericht des Links) benutze ich seit damals.
Klappt eigentlich immer. Spart mir fleißig Strom :-)

Ich hab damals aber auch erschreckende Bilder gesehen aus einem Test, wo ich überrascht war, wie stark der Stromverbrauch einfach nur bei höheren FPS zum Teil anstieg. Das waren so Verbrauchstestbilder.
Find die aber nicht mehr. Is zu lange her.
 
Zuletzt bearbeitet:
ChrisMK72 schrieb:
Ich hab vor Jahren schon Berichte gelesen, wo es allgemein in etwa hieß, dass mit steigender FPS-Zahl ganz allgemein der Strombedarf sehr ansteigt.

Im 3D Modus ja, das hatte SC2 zB auch im Menü, wo die Grafikkarten dann immer bei xxx fps Vollgas fuhren (würde ohne Limiter zB auch bei FTL so laufen, da kann man die Karte auch ordentlich hochdrehen lassen). Aber im 2D Modus ist das eigentlich nicht üblich.
 
Wie stellt man denn ein, dass in Spielen 144 Hz und beim Desktop Betrieb 120 Hz genutzt werden?
Ich habe in der Nvidia Systemsteuerung nur eine Einstellung zur Frequenz gefunden (neben der Auflösung) und auf 120 Hz eingestellt.
Wird die Frequenz beim Spielen nun automatisch auf 144 Hz getaktet?
 
Auf dem Desktop halt 120Hz und im Spielemenü auf 144Hz.

(GeForce Experience macht's automatisch - das doofe Programm ;) )
 
hrafnagaldr schrieb:
zB auch im Menü, wo die Grafikkarten dann immer bei xxx fps Vollgas fuhren (würde ohne Limiter zB auch bei FTL so laufen, da kann man die Karte auch ordentlich hochdrehen lassen).

Jo, bevor ich damals anfing, meine FPS immer zu checken, wußte ich auch nicht, dass in manchen Menüs FPS im tausender Bereich auflaufen.
Dank FPS limiter ist es sofort limitiert. Momentan auf 50. Reicht mir im Moment.

Ich benutze seit damals EVGA Precision X.
Da kann man auch seine eigene Lüfterkurve eingeben usw. .
Man muss das nicht zum Übertakten nutzen, man kann es auch gegenteilig einsetzen ;-)

Bild vom Programm:
OulfvUE.jpg

P.s.: Keine EVGA-Werbung, da ich keine EVGA GPU nutze. Funktioniert auch mit anderen GPUs das Programm.
 
Zuletzt bearbeitet:
MichaG schrieb:
Egal wie alt das Problem sein mag (ja die Berichte gibt es seit mindestens 2013, wie auch im letzten Absatz geschrieben): Nvidia hat es jetzt als Treiber-Bug anerkannt. Das war uns eine News wert. ;)

War es vorher ein Treiberfeature? ;) :D
 
der_Schmutzige schrieb:
Also bei welchem Szenario unter Win soll der zu hohe Takt anliegen? Habs mehrmals gelesen, bin wohl zu doof. :(
Du bist nicht zu doof. Es gibt Ausnahmen, wo die Karten unabhängig vom Treiber schon richtig takten. Du hast also schlicht und ergreifend Glück.

Handysurfer schrieb:
Irgendwo verständlich, schließlich braucht das Energie und "pseudo-theoretisch" das Panel doppelt so viel wie 60 Hz.
Das ist zum Glück nicht der Fall. Der Unterschied bei meinem Acer liegt z.B. nur bei 10% für den Monitor. Der Unterschied zwischen 120Hz und 144Hz bei meiner 780ti liegt allerdings bei gut 80%.

ChrisMK72 schrieb:
Aber um nochmal auf's Thema zurückzukommen:
War es nicht ganz allgemein so, dass mit steigender FPS Zahl der Stromverbrauch exponentiell, oder zumindest sehr deutlich ansteigt ?
Der Verbrauch der Karte steigt bis zu 120Hz (falls du das meintest) gar nicht an. Erst darüber steigt die Leistungsaufnahme sprunghaft, weil der Treiber nun die Taktrate der Karte erhöht.
 
Krautmaster schrieb:
naja. Das machen viele Grafikkarten, ab einer gewissen Bandbreite schalten sie in den höheren Modus. Bei AMD wie auch Nvidia.

Falsch AMD hat Problem bei 144Hz usw. nicht. Einfach den Artikel gründlicher lesen.
 
Habs eben mit meiner GTX 970 und einem Benq XL2720Z getestet mit einem Messgerät - der Verbrauch im Idle ist zwischen 120 und 144 Hz satte 50% höher; die Idle GPU Taktrate geht auch viel weiter runter bei < 144 Hz.
Unfassbar :freak:
 
Zuletzt bearbeitet:
Smagjus schrieb:
Der Verbrauch der Karte steigt bis zu 120Hz (falls du das meintest) gar nicht an. Erst darüber steigt die Leistungsaufnahme sprunghaft, weil der Treiber nun die Taktrate der Karte erhöht.

Also völlig unabhängig von den FPS ?
Interessant. Einfach mal die Taktrate erhöhen. Warum auch nicht ? :rolleyes:;):D
 
DerBaya schrieb:
War doch schon lange bekannt. Ist bei meinem PG278Q auch. Im Windows hab ich halt "nur" 120Hz und in Games schaltet er ja autom. auf 144Hz. Who cares?!
3D Vision läuft sowieso nur mit 120Hz, daher juckts mich auch nicht.
 
Habe die Lösung gefunden: Weil die modernen Nvidia GPUs so brutal effizient sind, kann sich im Idle eine Eisschicht bilden (bei 24 Grad Zimmertemperatur). Deswegen hat Nvidia dieses Feature integriert um die Chips auf Betriebstemperatur zu halten. :D :lol:
 
Zurück
Oben