Stromverbrauch meines PCs

@eYc Ich habe mir für 5,98€ einen neuen Key gekauft und jetzt läuft wieder alles.
JMP $FCE2 schrieb:
Die 12V-Stecker und der PCIe-Slot sind nicht für häufige Umstöpseleien vorgesehen, und bei den großen Strömen, die da fließen, kann so ein ausgeleierter Stecker durchaus auch kokeln und Brände auslösen.
Ich stecke die Karte jetzt auch wieder rein. Es muss doch aber trotzdem eine Möglkichkeit geben, die Grafikkarte abzuschalten. Ich kann Sie nur im Geräte-Manager deaktivieren. Aber das schaltet ja nicht die komplette Karte aus. Ich teste dann ma Wochenende noch ein bisschen.

Hier noch kurz die Strom-Werte meines Systems:

Leerlauf (Desktop): 35 Watt

YouTube Full HD: 38 Watt

Youtube 4K HDR: 41 Watt

Blu-ray: 38,5 Watt

DVD: 38,5 Watt

Netflix: 40 Watt
 
HeavyRainMan schrieb:
Ich habe mir für 5,98€ einen neuen Key gekauft und jetzt läuft wieder alles
Wo immer der herkommt, dir ist schon klar dass das nichts rundherum legales sein kann!?
 
  • Gefällt mir
Reaktionen: Donald Duck
Zuletzt bearbeitet:
Weiß nicht ob das so gut ist, solche Angebote hier zu verlinken (ich klick lieber nicht drauf).
 
HeavyRainMan schrieb:
Ich stecke die Karte jetzt auch wieder rein. Es muss doch aber trotzdem eine Möglkichkeit geben, die Grafikkarte abzuschalten. Ich kann Sie nur im Geräte-Manager deaktivieren. Aber das schaltet ja nicht die komplette Karte aus. Ich teste dann ma Wochenende noch ein bisschen.

Hol erst das Leistungsmessgerät, und miss mit ausgebauter Grafikkarte den Leerlaufverbrauch.

Dann kannst Du die Karte einbauen, softwaremäßig deaktivieren, und wieder den Leerlaufverbrauch messen. Gibt es keinen nennenswerten Unterschied -> Mission erledigt.
 
JMP $FCE2 schrieb:
Hol erst das Leistungsmessgerät, und miss mit ausgebauter Grafikkarte den Leerlaufverbrauch
Hab ich schon. Es sind 35 Watt OHNE Grafikkarte. Ich wollte die RTX 2080TI eh ersetzen. Was würdet ihr empfehlen? GTX 1050TI, GTX 1060/1650 oder RTX 3050?
 
  • Gefällt mir
Reaktionen: Wilhelm14
Die Irritation kommt, weil du mitten im Thema wieder mit HWiNFO "misst", weil das echte Messgerät bei Muttern lag. 35 W laut Energiekostenmessgerät ohne 2080Ti? Gut. Wieviel Watt sind es mit 2080Ti, laut Energiekostenmessgerät? Stellt sich die Frage, ob eine andere Grafikkarte überhaupt was spart. Welches Messgerät hast du denn jetzt?
 
Wilhelm14 schrieb:
Wieviel Watt sind es mit 2080Ti, laut Energiekostenmessgerät?
Das kann ich euch dann morgen sagen. Mein Nachbar baut diese dann wieder ein. Er wollte mir noch 2 Gehäuselüfter ersetzen.
Wilhelm14 schrieb:
Stellt sich die Frage, ob eine andere Grafikkarte überhaupt was spart.
Ich würde Sie im Geräte-Manager deaktivieren. Ich habe keine Möglichkeit im BIOS des ASUS-B550-E-Gaming den PCIE Slot zu deaktivieren. Deswegen die Deaktivierung im Geräte-Manager.

https://www.pcgameshardware.de/Gefo...mark-Vergleich-vs-6500-XT-RTX-2060-1387678/5/

Die Grafikkarten-Auswahl ist halt schwierig.

Ich sage euch mal was ich ab und an spiele.

PUBG, Rainbow Six Siege, Hearts Of Iron IV, Hell Let Loose, mehr ist es nicht. Und da würden mir 1080p bis 1440p ausreichen. Eher 1080p.
 
Ich habe mir folgende Karten rausgesaucht:

RX 6600 XT Sapphire Pulse

Asus GeForce RTX 3050 Dual OC

Asus GeForce GTX 1050TI Cerberus Advanced

@Wilhelm14 @JMP $FCE2 @eYc Danke bis hier hin für eure tolle Unterstützung. :)
 
HeavyRainMan schrieb:
Ich würde Sie im Geräte-Manager deaktivieren. Ich habe keine Möglichkeit im BIOS des ASUS-B550-E-Gaming den PCIE Slot zu deaktivieren. Deswegen die Deaktivierung im Geräte-Manager.
Und einfach umschalten auf "onboard-Grafik", das müsste doch gehen? Bringt das nichts?
Dann ist sie in Windows, also im Gerätemanager, schon mal gar nicht mehr zu sehen.
HeavyRainMan schrieb:
Ich wollte die RTX 2080TI eh ersetzen. Was würdet ihr empfehlen? GTX 1050TI, GTX 1060/1650 oder RTX 3050?
Die GTX1000er Serie war, als sie rauskam, im Vergleich zu den Vorgänger-GPUs (und AMD) schon fast sensationell sparsam beim Gaming. Weiß nur nicht wie's im Leerlauf war.
 
eYc schrieb:
Und einfach umschalten auf "onboard-Grafik", das müsste doch gehen?
Was ich immer in den verschiedenen Beiträgen gelesen habe, Sie wäre zwar im Geräte-Manager deaktiviert, würden aber trotzdem noch was ziehen. Aber das fnde ich dann morgen raus. Ich hatte mal die GTX 1060, mit der war ich sehr zufrieden. Die RTX 3050 scheint genauso so gut - wenn nicht so gar noch ein bisschen besser zu sein.

Leerlauf

GTX 1050TI: 7 - 10 Watt

RTX 3050: 10 Watt

RX 6600 XT: 5,5 Watt


Im Spiel

GTX 1050TI (4GB) : 75 Watt (maximal 150 Watt mit 6-Pin-Netzteil-Anschluss)

RTX 3050 (8GB) : 136 Watt

RX 660XT (8GB): 155 Watt
 
eYc schrieb:
Wo immer der herkommt, dir ist schon klar dass das nichts rundherum legales sein kann!?
Ist es nicht. Irgendwann kommt die Meldung von Windows "Sie sind Opfer einer Softwarefälschung geworden" oder so was. :freak:
 
@JMP $FCE2 @eYc @Wilhelm14 Die Karte ist verbautr und wurde gemessen.

Mit aktivierter Grafikkarte: 150 Watt im Leerlauf

Mit deaktiverter Grafikkarte über den Geräte-Manager: 105 Watt im Leerlauf.

Grafikkarte vom Netzteil getrennt aber im Slot verbnleibend: 40 Watt.

Ich finde im BIOS von meiner Asus B550 E-Gaming keine Option die es mir erlaubt, den Slot der Grafikkarte abzuschalten.

Nachtrag: Ich habe in der NVIDIA-Systemsteuerung alles deaktiviert und auch im Geräte-Manager die Karte deaktiviert. Der Stromverbrauch liegt jetzt bei 75 - 77 Watt, wenn ich ein YouTube Video schaue.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wilhelm14
Wilhelm14 schrieb:
So ganz lese ich das nicht heraus, hast du schon die Einstellungen in Windows probiert, wo man die Grafik auswählen kann, IGP vs. dGPU, wie hier verlinkt mit Bildern. Das ist ja nicht im Geräte-Manager. Man kann dort auch Anwendungen zuweisen, welche Software welche Grafik benutzen soll.
https://www.computerbase.de/forum/threads/stromverbrauch-meines-pcs.2065897/page-5#post-26533783
Bildschirm an interne Grafikkarte und dann in der Nvidia Systemsteuerung unter 3D Einstellungen den "bevorzugten Grafikprozessor" auf "Integrierte Grafiken." Firefox und co darfst du nicht bei der Hochleistungskarte dabei haben. (Nur die Spiele.) Dann müsste das ganze funktionieren.

Die Option "bevorzugter Grafikprozessor" gibt es nicht.


Durchgelesen habe ich es und auch soweit wie möglich umgesetzt.

Aber keine Änderung. Ich habe einige Programme der Internen Grafikkarte zugespielt.

Momentaner Stromverbrauch, während ich YouTube Videos abspiele.
 

Anhänge

  • 16448766635653545990217874335279.jpg
    16448766635653545990217874335279.jpg
    1,4 MB · Aufrufe: 140
Was auch merkwürdig war. Ich habe heute PUBG gespielt und das Displayport-Kabel war im Mainboard-Eingang eingesteckt. Aber ich konnte die Grafik auf 1440p hochschrauben und hatte keine FPS-Einbrüche. Der Strpmverbrauch lag dann bei 150 Watt. Hat die Grafikkarte etwas das Spiel gerendert? Anders kann ich mir das nicht erklären. Aber wie kann es sein, das Sie das rendert, aber die integrierte Grafikeinheit auf dem Mainboard übernimmt die Bildzuspielung.
 
  • Gefällt mir
Reaktionen: Wilhelm14
Taskmanager oder GPU-z zeigen dir die Auslastung der GPU(s) an.
Aber hatten wird das nicht schon, dass du die dediziert Grafikkarte auch verwenden kannst, wenn der Monitor am Ausgang des Mainboards dran bleibt? :confused_alt:
 
  • Gefällt mir
Reaktionen: Wilhelm14
HeavyRainMan schrieb:
Aber wie kann es sein, das Sie das rendert, aber die integrierte Grafikeinheit auf dem Mainboard übernimmt die Bildzuspielung.
Eigentlich ist doch die Funktion genau dafür da, damit man nicht immer das Monitorkabel umstecken muss. 🙂
Bei mir ist das über 10 Jahre her und hatte es zeitweise mit "Nvidia Hybrid" laufen. Es ging leider häufiger nicht, als das es ging.
https://www.nvidia.com/content/Cont...gb/mergedProjects/nv3dENG/hybrid_graphics.htm
https://www.pc-erfahrung.de/hardwar...eatures-von-grafikkarten/hybrid-graphics.html
"Damals" ging das noch über den Treiber, heute ist die umschaltbare Funktion direkt in Windows enthalten. Man sieht ja auch im Taskmanager beide Grafikchips, siehe @eYc Es wird aber immer noch ein Zusammenspiel aus den Grafikchips, dem Mainboard-Chipsatz und den jeweiligen Treibern sein. Bei Notebooks ist das sowieso üblich. Da ich das aktuell nicht wirklich betreibe, kann ich leider keine konkreten Tipps geben.

PS: Weil du von "Nvidia Systemsteuerung" sprichst, ich meine wirklich die "Windows-Einstellungen" wie im Bild:
https://answers.microsoft.com/de-de...wechseln/f2f351ac-eb98-41c4-a8fa-f36372bc9874
Oder hat sich an der Stelle der Nvidia Treiber eingeklinkt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eYc
Wilhelm14 schrieb:
Eigentlich ist doch die Funktion genau dafür da, damit man nicht immer das Monitorkabel umstecken muss. 🙂
Bei mir ist das über 10 Jahre her und hatte es zeitweise mit "Nvidia Hybrid" laufen. Es ging leider häufiger nicht, als das es ging.
https://www.nvidia.com/content/Cont...gb/mergedProjects/nv3dENG/hybrid_graphics.htm
https://www.pc-erfahrung.de/hardwar...eatures-von-grafikkarten/hybrid-graphics.html
"Damals" ging das noch über den Treiber, heute ist die umschaltbare Funktion direkt in Windows enthalten. Man sieht ja auch im Taskmanager beide Grafikchips, siehe @eYc Es wird aber immer noch ein Zusammenspiel aus den Grafikchips, dem Mainboard-Chipsatz und den jeweiligen Treibern sein. Bei Notebooks ist das sowieso üblich. Da ich das aktuell nicht wirklich betreibe, kann ich leider keine konkreten Tipps geben.

PS: Weil du von "Nvidia Systemsteuerung" sprichst, ich meine wirklich die "Windows-Einstellungen" wie im Bild:
https://answers.microsoft.com/de-de...wechseln/f2f351ac-eb98-41c4-a8fa-f36372bc9874
Oder hat sich an der Stelle der Nvidia Treiber eingeklinkt?
Nein hat er sich nicht. Aber wie schon geschrieben, Ich habe in den Grafikeinstellungen alle Programme bis auf die Spiele der Internen Grafikkarte zugewiesen. Es brachte keine Verbesserung im Stromverbrauch.
 
Zurück
Oben