52°C IDLE, kein ZERO FAN auf Desktop? MSI GeForce RTX 3090 GAMING X TRIO 24G - 144 Hz G-Sync Monitore Schuld?

So ich habe nun endlich die NVIDIA Systemsteuerung wieder gefunden. Rechtsklick auf Desktop und ab geht's.

Auch mit drei Bildschirmen @ 1440p und 60 Hz als auch mit einem TFT mit 1440p @ 60 Hz (nach Hard Reboot) kommt die MSI 3090 nie unter 49/50°C und die Lüfter der Grafikkkarte hören NIE auf zu drehen. Gibt es hier noch mehr MSI 3080 / 3090 Karten Besitzer mit ähnlichen Problem? Das ist mega nervig wenn man ein unhörbares System hat und plötzlich röschelt da eine Grafikkarte die ganze Zeit.

1606006494014.png


1606006502424.png

Sonstige Ideen? Hätte noch ne Aorus 3090 Master zum Abholen ready aber die hat nur 2 Stromanschlüsse und nachdem was ich bisher gesehen habe, ist die unter Last wohl nicht leiser als die MSI Gaming Trio X.

Wie kontaktiert man MSI am besten? Per E-Mail oder sind die über Twitter etc. auch kompetent?


edit

Gerade Posting abgeschickt und zack ist Ruhe. LOL. Die Grafikkarte ist nämlich auf 47°C bzw. mittlerweile 46°C gedropped. Alles eben mit nur einem TFT @ 1440p und 60 Hz. Ich werde mir mal den Trick von oben angucken Nvidia Inspector und Power Saving Tool angucken und schauen ob man die Lüfterkurve anzupassen kannst. WTF. Wenn das klappt bleibt die Gaming X Trio. Lautstärke unter Last ist gerade noch erträglich.

1606006766125.png


Und nochmal edit

Nachdem ich nun die anderen beiden Monitore erst nach dem Start von Windows angeschlossen habe, kommt die Karte nun im Browser über 50°C aber die Lüfter drehen trotzdem nicht auf. Verstehe einer MSI und Nvidia... Ok, Fehler gefunden. Alle drei Bildschirme standen auf 60 Hz. Hier die Screens mit 3 TFTs @ 1440p 60 Hz.
1606007441880.png

1606007452241.png

1606007488281.png

So, jetzt wird es spanned. Eben alle 3 TFTs auf 144 Hz gestellt und zack taktet der Speicher erstmal von 50 Mhz auf 1219 Mhz und die Temperatur steigt auf 55°C und jetzt sogar 59°C. Ok, jetzt ist die Karte sogar bei 60°C angekommen und zack drehen die Graka Lüfter auf. Heißt das Board Power Draw eigentlich das die Karte jetzt erstmal 106 W IDLE auf dem Desktop frisst? Ich hätte wohl doch das Titanium NT nehmen sollen. Ich schick meine Stromrechnung an MSI. ;D

1606007614057.png
1606007653007.png
1606007713907.png


Sorry, hatte die GPU geschlossen. Hier noch die restlichen Daten mit 3 TFTs @ 1440p und 144 Hz auf DEM DESKTOP!!!

1606008124950.png
 
Zuletzt bearbeitet:
Gibt's hier noch jemand anderen mit einer 3090 und einem Tripple Monitor Setup @ 144 Hz, der testen könnte ob sein Modell auch auf dem Desktop 100W zieht? Könnte ich evtl. in einem bestimmten Subreddit entsprechende Leute finden? Das ist doch einfach komplett gaga mit 100W idle auf dem Desktop. Und nein, auf 144 Hz auf dem Desktop werde ich nicht verzichten.
 
Ich kann dir als vergleich meine Werte anbieten Radeon 5700 auf Linux mit Desktop und mehreren Programmen offen, 2 Bildschirme. Der Desktop ist mit 3D compositing und effekten und die Programme ansonsten nicht besonders Grafiklastig
  • Firefox, steam, messenger - das übliche.
  • Monitor 1 2560*1080@200Hz
  • Monitor 2 3840*2160@60Hz

Hier die Verbrauchsangabe:

Code:
========================ROCm System Management Interface========================
================================================================================
GPU  Temp   AvgPwr  SCLK    MCLK    Fan     Perf  PwrCap  VRAM%  GPU%
0    31.0c  32.0W   800Mhz  875Mhz  100.0%  auto  150.0W   21%   0%
================================================================================
==============================End of ROCm SMI Log ==============================

(Die Fan Geschwindigkeit steht auf 100% weil der abgeklemmt ist und an Custom Wakü angeschlosssen)

Ich weiß nicht ob ein dritter Monitor noch einen unterschied machen würde schließlich läuft bei mir der Speicher auch schon auf Maximaltakt vermutlich wegen den 2 Monitoren.
Dabei kommt mir in den Sinn, da gab es ja die Meldung, dass Nvidia bei den Modellen GDDR6X verbaut hat und dieser Speicher doch im Vergleich ziemlich viel verbraucht weil der quasi mit der Brechstange auf so hohen Takt geprügelt wurde. Da wundert es weniger, dass der Verbrauch dann mit mehreren Monitoren so hoch geht bedingt dadurch, dass der VRam schneller sein muss.
Die 6000er Radeon haben zum Beispiel GDDR6 statt GDDR6X verbaut, der nicht so viel verbraucht.

Wäre schon interessant zu erfahren ob das dann bei den anderen 3000er Modellen auch so ein hoher Idle verbrauch mit Mehreren Monitoren gibt.
Allerdings sind die Karten auch nun wirklich nicht als Stromsparwunder gebaut! Die sind wirklich ohne rücksicht auf den Strom im Takt hochgeprügelt.
 
Alexander2 schrieb:
Ich kann dir als vergleich meine Werte anbieten Radeon 5700 auf Linux mit Desktop und mehreren Programmen offen, 2 Bildschirme. Der Desktop ist mit 3D compositing und effekten und die Programme ansonsten nicht besonders Grafiklastig
  • Firefox, steam, messenger - das übliche.
  • Monitor 1 2560*1080@200Hz
  • Monitor 2 3840*2160@60Hz

Hier die Verbrauchsangabe:

Code:
========================ROCm System Management Interface========================
================================================================================
GPU  Temp   AvgPwr  SCLK    MCLK    Fan     Perf  PwrCap  VRAM%  GPU%
0    31.0c  32.0W   800Mhz  875Mhz  100.0%  auto  150.0W   21%   0%
================================================================================
==============================End of ROCm SMI Log ==============================

(Die Fan Geschwindigkeit steht auf 100% weil der abgeklemmt ist und an Custom Wakü angeschlosssen)

Ich weiß nicht ob ein dritter Monitor noch einen unterschied machen würde schließlich läuft bei mir der Speicher auch schon auf Maximaltakt vermutlich wegen den 2 Monitoren.
Dabei kommt mir in den Sinn, da gab es ja die Meldung, dass Nvidia bei den Modellen GDDR6X verbaut hat und dieser Speicher doch im Vergleich ziemlich viel verbraucht weil der quasi mit der Brechstange auf so hohen Takt geprügelt wurde. Da wundert es weniger, dass der Verbrauch dann mit mehreren Monitoren so hoch geht bedingt dadurch, dass der VRam schneller sein muss.
Die 6000er Radeon haben zum Beispiel GDDR6 statt GDDR6X verbaut, der nicht so viel verbraucht.

Wäre schon interessant zu erfahren ob das dann bei den anderen 3000er Modellen auch so ein hoher Idle verbrauch mit Mehreren Monitoren gibt.
Allerdings sind die Karten auch nun wirklich nicht als Stromsparwunder gebaut! Die sind wirklich ohne rücksicht auf den Strom im Takt hochgeprügelt.

3 TFTs 1440p @ 60 HZ => 32 W
3 TFTs 1440p @ 144 HZ => 100 W

Da ist einfach was massiv falsch programmiert.
 
Wie ist die energieoption in den nvidia Einstellungen der grafikkarte eingestellt, auf adaptiv oder Performance?
Wenn auf performance, dann mal adaptiv testen.
 
  • Gefällt mir
Reaktionen: tackleberry
Alexander2 schrieb:
Wie ist die energieoption in den nvidia Einstellungen der grafikkarte eingestellt, auf adaptiv oder Performance?
Wenn auf performance, dann mal adaptiv testen.

Die stehen auf optimale Leistung... Was ist denn die Standardeinstellung? Ich probiere mal adaptiv.
 
Wie bereits gesagt, die Problematik ist schon uralt und gibt es nicht erst seit Ampere. Das gleiche Problem tritt auch auf, wenn ein Monitor mit > 240 Hz läuft. Dann geht die GPU nicht mehr in den P8 Idle State. Den meisten wird es wahrscheinlich nicht einmal auffallen.

Die einzige Abhilfe kann hier der Nvidia Inspector schaffen oder du benötigst ein modifizertes BIOS für die Karte.
1606084037342.png


In meinem Fall ist die 3090 im P8 State, weil da auch nur ein Monitor dran hängt und der mit 120 Hz derzeit läuft.
Bei dir steht da mit Sicherheit P2 State. Kannst du nur mit einem Threshold regeln oder wie oben erwähnt du hast ein modifiziertes BIOS für die Karte.
 
  • Gefällt mir
Reaktionen: tackleberry
Zurück
Oben