Sammelthread Turing RTX 2060/2070/2080(Ti) Overclocking/Undervolting

maik005 schrieb:
Mit den knapp 1.700 MHz und selbst ein bisschen UV schafft die Karte es immer noch ganz locker ins Powerlimit zu kommen.
Ok, das stimmt da lag ich dann falsch, ich dachte 170-180 Watt wären das Maximum, aber meine zieht ja anscheinend über 200 Watt ohne Undervolting.^^

Ich denke dann macht es für mich gar keinen Sinn auf 1680 MHz zu limitieren? Dann muss ich weiter testen, vielen Dank für die ausführliche Erklärung.^^

Das mit der Taktfrequenz kapiere ich immer noch nicht, wieso taktet meine GPU so hoch wenn sie überhaupt nicht ausgelastet ist, liegt das vielleicht an den Energieeinstellungen im Grafikkartentreiber?
 
Gravlens schrieb:
Das mit der Taktfrequenz kapiere ich immer noch nicht, wieso taktet meine GPU so hoch wenn sie überhaupt nicht ausgelastet ist, liegt das vielleicht an den Energieeinstellungen im Grafikkartentreiber?
sie ist ja auch in Cinebench ausgelastet, mit bis zu 97% lt. Screenshot.
Nur wird dabei nicht die volle Leistung des Chips abgerufen.
Ist wohl etwas komplizierter, kann dir vielleicht jemand anderes erklären.

Oder du machst noch mal einen Screenshot von HWiNFO während Cinebench gerade läuft.

Ich habe meine 2060S z.b. auf 1.350 MHz bzw. 1.500 MHz limitiert.
Das reicht für ältere Spiele problemlos, spart Strom und ist leiser.
Für aktuellere Spiele limitiere ich den Takt gar nicht, sondern das Powerlimit von 175W auf 125W.
Spart deutlich Energie, ist leiser und in der Praxis nur ein paar fps weniger.
 
  • Gefällt mir
Reaktionen: Gravlens
@maik005 Ich werde es jetzt erstmal ausgiebig testen, mit einer Limitierung auf 1500 MHz wie du das eingestellt hattest und wie weit ich da mit Undervolting gehen kann., danach dann mit einem niedrigeren Power-Limit.^^

Die Taktfrequenz scheint ja solange die Grafikkarte nicht fast vollständig ausgelastet ist keine so große Rolle zu spielen.^^
 
@maik005 Also, nach ein wenig Testen mit unterschiedlichen Einstellungen würde ich dann sagen Furmark ignoriert das Undervolting nicht vollständig, aber der Verbrauch steigt trotzdem mit erhöhter Taktfrequenz trotz gleichbleibender Spannung.^^

Beispielsweise hatte ich 1500 MHz @ 700 mV eingestellt und hatte nach ein paar Minuten Stresstest am Ende dann 158 Watt max. Verbrauch.

Dann mit 1590 MHz @ 700 mV direkt zu Beginn des Stresstests 166 Watt Verbrauch.^^

Wobei ich das mit der Taktfrequenz immer noch nicht verstehe, bei dem Spiel hatte ich ja 1665 MHz mit einer höher eingestellten Spannung und nur um die 80-90 Watt Verbrauch, das liegt dann vielleicht wirklich an den Energieeinstellungen im Grafikkartentreiber, anders kann ich mir das sonst nicht erklären.^^

Ach so, weiß jemand zufällig wie man die Spannung im Afterburner unter die 700 mV bekommt und es mit dem Tool keine Probleme gibt? Hatte das in der Konfigurationsdatei vom AB geändert, aber AB kam damit nicht klar, gab Resets der Grafikkarte und hatte leichte Probleme mit der Anzeige des Desktops.^^
 
Der Verbrauch steigt mit dem Takt linear, mit der Spannung quadratisch. Unter 700mV wirst du nicht kommen, hat aber nichts mit dem AB zu tun, sondern dem BIOS der GPU.
 
  • Gefällt mir
Reaktionen: derin und Gravlens
TheOpenfield schrieb:
Der Verbrauch steigt mit dem Takt linear, mit der Spannung quadratisch.
Wenn dem so ist, dann verstehe ich es nicht.^^ Ich hatte ja schon die Werte mit dem Spiel gepostet, da hatte ich eine höhere Taktfrequenz und eine höhere Spannung und trotzdem war der Verbrauch viel niedriger.^^

Also alleine die Taktfrequenz und Spannung kann es ja nicht sein? Zumindest wenn ich nach den Werten gehe.^^
 
Nachdem NVIDIA (wie auch AMD) in die Treiber eine "Furmark-Erkennung" implementiert haben, würde ich darauf ohnehin nicht viel geben.

Teste einfach mal mit einer praxisnahen konstanten reproduzierbaren Last, dann kommt das ziemlich gut hin. Natürlich passt es nicht perfekt, da auf der GPU ja neben dem Grafikprozessor auch noch VRAM und weitere Verbraucher vorhanden sind, welche unabhängig von Kerntakt und -frequenz einige Watt ziehen. Mit HWiNFO lässt sich allerdings auch der Verbrauch gut aufdröseln.
 
@Gravlens
Die Auslastung ist der Unterschied. Auch 100% sind nicht gleich 100%.

In einem Szenario hast du 1600 MHz und es wird nur die halbe GPU effektiv genutzt.
Im anderen Szenario hast du auch 1600 MHz aber die ganze GPU wird effektiv ausgenutzt.

5000 Shader die arbeiten verbrauchen nun mal mehr als 2500 Shader die schaffe.

Furmark ist halt das Paradebeispiel für eine simple aber sehr effektive Art alles auf der GPU zu nutzen (bzw. einen bestimmten Teil der GPU)
 
  • Gefällt mir
Reaktionen: maik005 und derin
TheOpenfield schrieb:
Nachdem NVIDIA (wie auch AMD) in die Treiber eine "Furmark-Erkennung" implementiert haben, würde ich darauf ohnehin nicht viel geben.
Also kann ich mir weitere Tests mit Furmark und höheren Taktfrequenzen sparen weil die Spannung per Treiber erhöht wird und mir keinen Aufschluss darüber gibt ob es Stabil laufen würde?^^

Pizza! schrieb:
Furmark ist halt das Paradebeispiel für eine simple aber sehr effektive Art alles auf der GPU zu nutzen (bzw. einen bestimmten Teil der GPU)
Das wurde mir ja schon erklärt, mir geht es um den Verbrauch in der Relation. Bei zwei Tests mit Furmark hatte ich die gleiche Spannung und nur eine höhere Taktfrequenz, letzteres war der einzige Unterschied, alles andere ist ja unverändert geblieben wie die Anzahl der Shader usw., und trotzdem hatte ich direkt einen höheren Verbrauch.^^
 
Gravlens schrieb:
weil die Spannung per Treiber erhöht wird
nein, wird sie nicht.
Siehst du doch auch.

Du kannst die GPU ohne Last auf 1900 MHz laufen lassen mit entsprechender Spannung und hast nur beispielsweise 30 W Verbrauch.
Es spielt vor allem die Auslastung der GPU eine Rolle für den Verbrauch.
 
maik005 schrieb:
Du kannst die GPU ohne Last auf 1900 MHz laufen lassen mit entsprechender Spannung und hast nur beispielsweise 30 W Verbrauch.
Ich habe es jetzt so gemacht, ich habe mit dem Furmark Stresstest geschaut wie weit ich mit dem Powerlimit heruntergehen kann und trotzdem sicher nie unter 1500 MHz zu fallen, das waren 85%.^^

Und habe dann im Afterburner auf 1500 MHz limitiert mit 700 mV Spannung, also das ist jetzt ein gerader Strich.^^

Ich meine wenn ich auf dem Desktop bin dann taktet die GPU nahe Idle auf 300 MHz herunter, dass der dann in einem Spiel wo die GPU nicht so stark gefordert ist dann auf einmal auf 1665 MHz hoch taktet kann ich mir dann nur mit den Energieeinstellungen erklären.^^

Ich hab dazu noch weiter im Netz gesucht, bin aber noch nicht fündig geworden, landete da bei irgendwelchen Motorenvergleiche. xD

Ich belasse es erst mal so wie ich es beschrieben habe, der Verbrauch ist ja trotzdem niedriger bei fast gleicher Taktfrequenz (im Powerlimit).^^

Danke an dich und allen anderen hier die mir geholfen haben.^^
 
Gravlens schrieb:
dass der dann in einem Spiel wo die GPU nicht so stark gefordert ist dann auf einmal auf 1665 MHz hoch taktet kann ich mir dann nur mit den Energieeinstellungen erklären.^^
Die Auslastung des gesamten Chip mag niedriger sein, ja.
Aber einzelne Recheneinheiten laufen eben unter Vollast.
Daher ist es auch sinnvoller über das Powerlimit zu begrenzen als über den Takt.

Mit dem Powerlimit kann die Karte bis zum maximalen takt hoch boosten wenn ein Spiel nur einen Teil der GPU auslastet und das Spiel wird meist schneller laufen, als wenn du generell den Takt begrenzt.
 
maik005 schrieb:
Mit dem Powerlimit kann die Karte bis zum maximalen takt hoch boosten wenn ein Spiel nur einen Teil der GPU auslastet und das Spiel wird meist schneller laufen, als wenn du generell den Takt begrenzt.
Ich hatte das mit Powerlimit 85% und der gleichen Spannung @1500 MHz ohne Limitierung der Taktfrequenz getestet, Cinebench2024 (GPU-Test) stürzt damit nach ein paar Sekunden bei mir ab.

AB-Curve.png


Ich hatte das Problem bereits vor einigen Seiten hier schon geschrieben, also dass das Undervolting bei meiner Grafikkarte sehr bescheiden ist, mir war da nur noch nicht bewusst dass das an den hohen Taktfrequenzen liegt und mit einem limitierten Takt wie jetzt z. B. mit 1500 MHz wesentlich mehr Undervolting möglich ist.^^
 
Zuletzt bearbeitet:
mehr Takt benötigt mehr Spannung.
Sieht man ja auch bereits an der Standard Takt/Spannungskurve.
 
Also wenn ich das jetzt nach den ganzen Tests die ich gemacht habe richtig interpretiere dann kommt man mit dem Furmark-Stresstest durch die gesamte Auslastung der GPU früher ins Powerlimit und dies ist dann wohl auch der Grund weshalb die Taktfrequenzen niedriger sind als "normal".^^

Ich bin so vorgegangen das ich erst geschaut habe auf welche Taktfrequenz Furmark meine GPU mit 100% PL limitiert.

Die lagen immer zwischen 1400 MHz und 1600 MHz, danach habe ich getestet wie weit ich mit 1500 MHz als max. Taktfrequenz per Afterburner undervolten kann, das waren dann 700 mV.

Und dann bin ich mit dem Powerlimit soweit heruntergegangen wie möglich ohne das die Karte ins Powerlimit läuft, das waren 85%.

Dachte ich, aber Furmark zeigt mir trotzdem noch "Powerlimit: 1" an, was bedeutet das ich trotzdem im Powerlimit bin?^^

Zumindest wenn ich die Benchmark-Ergebnisse vergleiche ist das die Erklärung für mich, ich habe mit 100% PL, 1650 MHz @ 750 mV (Afterburner) 158 FPS im Durchschnitt.

Und mit 85% PL, 1500 MHz @ 700 mV (Afterburner) 140 FPS im Durchschnitt.

Das interessante dabei waren die tatsächlichen Taktfrequenzen, bei dem Benchmark mit 1650 MHz (Afterburner) lagen die laut Furmark nur zwischen 1300 MHz und 1400 MHz, bei dem mit 1500 MHz (Afterburner) zwischen 1400 MHz und 1500 MHz.

Und die angezeigten TDP, bei 1650 MHz 99% und bei 1500 MHz 83%.

Also wenn ich das richtig verstehe dann wird je nach verfügbarer Leistung diese unterschiedlich aufgeteilt, so das trotz niedrigerem tatsächlichen Core-Takt mehr FPS erzielt werden als mit einem im Vergleich höheren Core-Takt.^^

Ich hoffe das war jetzt nicht zu verwirrend beschrieben.^^
 
Gut beschrieben und ja Furmark kann eine Grafikkarte oder bestimmte Teile einer GPU sehr gut komplett auslasten.

Softwarewerte sind nicht besonders genau und du siehst nur Werte die alle 1 oder 2 Sekunden auftauchen. Da muss man schon im Millisekunden Bereich aufzeichnen um zu sehen was wirklich passiert. Der Igor hat es in diversen Tests gezeigt: Oberflächlich gesehen hat die 3090 ihre 350 bis 450 Watt laut Afterburner gezogen. Im Detail kam dann heraus, dass es Spitzen gab die für ein paar Millisekunden über 800 Watt lagen.

Dazu kommen Werte wie der Videotakt die man eventuell nicht beachtet oder Werte die intern anliegen die man gar nicht auslesen kann.
Begrenzt du künstlich den GPU Takt werden auch andere Sachen wie der Videotakt verringert, da die am GPU Takt mit dran hängen.

Das ganze wird dann dynamisch extrem schnell an die engen Grenzen die du gesteckt hast angepasst. Viel schneller als du es mit den Werten die einmal pro Sekunde ankommen siehst.
 
  • Gefällt mir
Reaktionen: Gravlens
@Pizza! Danke für die Antwort und die Erklärung.^^

Wenn dem so ist, dann lohnt es sich um jedes einzelne mV zu "kämpfen".^^

Ich hab jetzt über die Config-Datei von Afterburner die Spannung von 700 mV auf 675 mV @ 1500 MHz gesenkt:

FM-AB.png

Die niedrigsten Werte meiner GPU sind 300 MHz @ 643 mV laut Afterburner, also theoretisch müsste das dann wohl auch der niedrigste Wert sein auf den ich gehen könnte, ansonsten müsste man wohl das BIOS der GPU überschreiben.^^

Bevor man allerdings in der Konfigurationsdatei Werte ändert, unbedingt das automatische Starten von Afterburner mit Windows deaktivieren, da die Änderungen in der Config-Datei sich auf alle Profile auswirken.^^
 
@Gravlens
ich kann mir kaum vorstellen, dass das stabil läuft.
Probiere mal ein Spiel mit Raytracing, da merkst du nach meiner Erfahrung sehr schnell, wenn die Grafikkarte instabil läuft.
 
  • Gefällt mir
Reaktionen: amorosa
@maik005 Ja, das ist sehr gut möglich, habe es noch überhaupt nicht mit einem Spiel probiert, nur ganz kurz mit Furmark, ich gehe dann natürlich wieder höher mit den mV-Werten wenn es zu Instabilitäten kommt, bin ja sozusagen am Anfang der Testphase.^^
 
Zurück
Oben