Blackwell (5070/5080/5090) Overclocking/Undervolting Sammelthread

Btw.
MSI Afterburner und co. Zeigen als 100% das im Bios als Default hinterlegte PL an.
Also bei einer Astral oder TUF OC sind das bei einer 5090 600 Watt und der Regler geht gar nicht über 100%, während bei einer "normalen" 5090 man den Regler auf 104 Prozent stellen kann.

Deshalb ja schauen, was die Karte in Steel Nomad zieht...da durfte sie eben im Limit laufen.
 
  • Gefällt mir
Reaktionen: amiximpulse
Tatsächlich. Ich Frage mich, wo ich 340W gelesen habe.
Macht es Sinn, wenn man noch Kapazität im Netzteil hat, dass im GPU BIOS weiter zu erhöhen?
Ich schaue später mal in Steel Normad nach.
Danke euch schon mal
 
Azghul0815 schrieb:
Btw.
MSI Afterburner und co. Zeigen als 100% das im Bios als Default hinterlegte PL an.
Also bei einer Astral oder TUF OC sind das bei einer 5090 600 Watt und der Regler geht gar nicht über 100%, während bei einer "normalen" 5090 man den Regler auf 104 Prozent stellen kann.

Deshalb ja schauen, was die Karte in Steel Nomad zieht...da durfte sie eben im Limit laufen.
Die %-Angabe ist bedeutungslos…
Bei dieser Karte entsprechen 104% 600W. Da kann der Regler auch bis 133% gehen (=600W) :D
 
amiximpulse schrieb:
Macht es Sinn, wenn man noch Kapazität im Netzteil hat, dass im GPU BIOS weiter zu erhöhen?
Ich schaue später mal in Steel Normad nach.

Ins Bios höhere Taktraten reinschreiben?

Ansonsten könnte man hier auch UV testen, kriegt man eine 5070TI bestimmt auch um rund 40-50W runter, wenn die auf Stock in Steel Nomad dann auch 320 oder 340 saugt?

Aber wenn Nvidia ja schon unnötig ein zweites Programm hat (neben Systemsteuerung die sogenannte App), können sie beide zu einem Programm verschmelzen und dann den Kurveneditor aus dem AB mal einbauen. Der Treiber läuft ja eh immer mit und der AB könnte ggf. ganz weg. Für ausgelesene Werte geht dann auch GPU-Z und ich beobachte, dass dieses nicht so problematisch ist wie das OSD vom AB / RTSS, was Ruckler und Lagspikes in diversen Spielen betrifft. Aktuell schließe ich den AB nach eingestellter UV-Kurve.
 
- Erledigt -
 
Zuletzt bearbeitet:
@woliver23 Siehe Signatur wird nicht so gerne gesehen ;)
Hier sein System:
Lian-Li A4-H2O Mini-ITX
AMD Ryzen 9800X3D | INNO3D RTX 5080
CORSAIR 32 GB DDR5 | WD 2 TB SN850X | WD 4 TB SN850X
 
  • Gefällt mir
Reaktionen: woliver23
@zEedY93 Das wusste ich nicht, sorry. Ich dachte, sie sei genau dafür da. :D Danke schön! :)
 
  • Gefällt mir
Reaktionen: Azghul0815
amiximpulse schrieb:
Tatsächlich. Ich Frage mich, wo ich 340W gelesen habe.
Macht es Sinn, wenn man noch Kapazität im Netzteil hat, dass im GPU BIOS weiter zu erhöhen?
Ich schaue später mal in Steel Normad nach.
Danke euch schon mal
Für Benches gut - für den Alltag nicht relevant...
Und nicht vergessen, dass man im AB die Werte neu suchen muss bzw. gleich nen Stück runtergeht

Ich musste im AB ca. 100MHz weniger Takt einstellen, weil das fremde BIOS nen 105MHz höheren Boost hat. Der angezeigte Takt, während dem Benchen und Score sind höher

links org. BIOS - rechts fremdes BIOS
Screenshot 2025-05-03 223830.png Screenshot 2025-05-03 223407.png
 
  • Gefällt mir
Reaktionen: amiximpulse und zEedY93
Puh, was nerven mich diese Mülltreiber von Nvidia wieder. Dem 32GQ85X-B kann ich dann wieder Blackscreens entlocken, wenn ich aus GTA5 Enhanced raustabbe und die Kurve im AB an-/ausschalte. Und nein, Spiel und Treiber sind nicht abgestürzt. Nach hin und her mit Windows+P hatte ich das Spiel auf beiden Monitoren oder auf dem 27GP850-B.
 
  • Gefällt mir
Reaktionen: Azghul0815
Weiß ich ja :)
Hatte GPUs, bei denen PT 100% (450W) und PL 133% (600W) war

Und es gibt 5090 bei denen PT und PL 100% sind (beide 600W)
 
Banger schrieb:
Puh, was nerven mich diese Mülltreiber von Nvidia wieder.

Spiel beenden, ganz ohne irgendwelche Einstellungen oder Raustabben oder DSR, reicht auch, um Blackscreens zu verursachen.

Edit:

Jede Wette, dass Nvidia das nicht im Griff hat mit dem 32GQ85X-B, während der 27GP850-B nicht diese Probleme hat. (Das extreme Flickering bei Witcher 3 war auch auf dem 32... stärker als auf dem 27...., aber wenigstens das haben sie behoben.

Hat eigentlich nichts mit den UV-Settings zu tun. Das ist egal, ob die an sind oder nicht.

Alle getesteten Programme laufen nun aber definitiv mit ~2805-2820 mit ~0,9V.

GTA5 Legacy
GTA5 Enhanced
Gothic RMK Demo (Unreal Engine)
Titanic HG / Project 401 (Unreal Engine)
Steel Nomad
Witcher 3 in DX11 und in DX12 (Raytracing)
Resident Evil 4

Time Spy und Black Myth Wukung (Benchmark-Demo) fehlen noch.

Welches dieser Programme ist am empfindlichesten?

GTA5 Legacy habe ich als harmlos in Erinnerung, da hatte vor paar Jahren mal versehentlich Einstellungen aktiv, die in 3D-Mark (evl. war das Time Spy) und Superposition abgeschmiert sind, in GTA jedoch liefen. War bei der 1080 oder 2080 oder 2080S, eine von 3 Karten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zEedY93
Ups…
IMG_9662.jpeg
 
War eben gerade gut über 1.300W und insgesamt 117A 😧
 
Also Black Myth Wukong, das Benchmarktool, ist also genügsam unterwegs, wo die Karte auf Stock-Settings gerade mal 235-245W zieht. Einstellungen sind die empfohlenen, steht überall das Maximum/Kino dran, außer dass Framegen an ist und DLSS auf 75%. FPS kamen um die 120 und mit Ruckler teilweise, obwohl kein AB/RTSS an ist und GPU-Z nicht so kritisch war wie RTSS.

Kann jemand mit anderen 5080er auf Stock-Settings gegentesten? Auch @n0ti.

Edit:

Halt. Da ist doch das UV noch drin gewesen. Einen Moment.
Ergänzung ()

Stock-Settings 275-295W im Peak.

Also 40-50W Unterschied auch hier und 4K Temperaturunterschied.
 
Zuletzt bearbeitet:
Banger schrieb:
Welches dieser Programme ist am empfindlichesten?
Wenn du hast dann probiere KCD2 und Alan Wake 2 voll aufgedreht. Auch Star Wars Outlwas maximal aufgedreht geht richtig gut ab auf dem Gleiter und verlangt der GPU einiges ab.

Und die drei Klassiker natürlich: Red Dead Redemption 2 und Cyberpunk und insbesondere der GPU OC Killer schlechthin: Metro Exodus Enhanced Edition.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banger
Du hast kein einziges der Games? Soll ich dich nun beneiden oder bemitleiden? 🤔

Wozu dann die dicke GPU?
 
  • Gefällt mir
Reaktionen: NerdmitHerz und Zuchtmaista
Zurück
Oben