Energiesparen vs Zocken - Eine Übersicht und Umschaltung der Modi

Bigeagle schrieb:
Für 200 € bekommt man je nach Anforderungen nicht mal eine Krücke von Bildschirm. Wenn man nur gelegentlich Officearbeit oder mal kurz eine Runde spielt mag das nicht so tragisch sein, aber wenn man 8+ Stunden am Tag davor sitzt lohnt es sich schon vor dem Kauf ein wenig Testberichte zu lesen. Will man dann noch Office, Bildqualität und Spieletauglichkeit in einem haben muss man schon kompromisse eingehen, egal wie viel Geld man darauf wirft.
-> Einfach von 200 € statt 500 für einen Bildschirm ausgehen funktioniert eher nicht, ich würde davon ausgehen dass die Preiskategorie nicht aus der Luft gegriffen ist.

Ich komm mit meiner Überschlagsrechnung auf knapp 100€ Ersparnis, wenn ich die von ihm genannten 40W nehme. Wir sind bei Strompreisen angelangt wo sich auch wenige Watt bereits bemerkbar machen, wenn es eine Komponente ist die einfach ständig zieht, auch im Niedriglastbereich.
 
Ich halte all das für Akademisch…

1. »Wer misst misst Mist« - ich glaube mal kaum, dass auch auf Vollastmöglichkeit gesetzte Systeme immer in »hohen Drehzahlen« unterwegs sind sondern sich weitgehend runtertakten.
Wenn ich Power brauche muss ich damit leben, dass ein gewisser höherer Grundmumsatz anfällt. Wer ’n Tausender für eine GraKa ausspuckt und mit einem I9 zockt hat seine Energientscheidung getroffen.

2. musste ich letztens Systeme über Nacht laufen (sagen wir: arbeiten) lassen. Zwar keine Brüllergeräte - aber eben über Nacht. Ein Blick auf Kühlschränke, Sat-Receiver+TV und den E-Herd offenbaren, dass die so viel futtern, dass der PC gar nicht weiter ins Gewicht fällt. In keinem Falle heraussticht.

Wäre Energisparen per Schemaumschaltung gäbe es längst manuelle und intelligente Lösungen.

CN8
 
  • Gefällt mir
Reaktionen: Intruder
cumulonimbus8 schrieb:
Ein Blick auf Kühlschränke, Sat-Receiver+TV und den E-Herd offenbaren, dass die so viel futtern, dass der PC gar nicht weiter ins Gewicht fällt. In keinem Falle heraussticht.

Siehe mein Beispiel oben, wenn 40W über 12h bei einem Monitor gespart werden sind das 175 kWh. Ein moderner Kühlschrank (Kühlgefrierkombi!!!) schlägt mit nur 150 kWh zu Buche. Da ist nichts "akademisch".
 
Das ist schon Akademisch.
Ich müsste bei täglichem Ablesen Unterscheide bemerken wenn diese immanent wären. Ich bemerke sie nicht.
Wenn ich ein Gerät (ge)brauche brauche ich es. Jetzt. Oder ich brauche es nicht (ausschalten, runterfahren…) - und dann muss ich mich fragen ob da 800W in der Luft hängen oder gute 300. Brauche ich 800 zum Zocken - dann wäre das nicht anders, dass eben ein Porsche in der Garage steht und kein Golf.
Der Office-PC fällt da wenigstens nicht so auf, dass der Aufwand es wert wäre.

CN8
 
  • Gefällt mir
Reaktionen: Intruder
cumulonimbus8 schrieb:
bei täglichem Ablesen Unterscheide bemerken wenn diese immanent wären. Ich bemerke sie nicht.
Vielleicht liegt es am "Wer misst misst Mist", vor allem wenn man "nur mal so drauf schaut", also im Prinzip noch nichtmal misst.
 
  • Gefällt mir
Reaktionen: 0mega
NikkyD schrieb:
Ich komm mit meiner Überschlagsrechnung auf knapp 100€ Ersparnis, wenn ich die von ihm genannten 40W nehme.
12 std am Tag x 365 Tage x 40 W x 50 cent pro kWh ergibt bei mir 87,60 €
Wobei gymfan von 25-40 W schrieb, das ist also eher der best-case. Ob man die 12 Betriebsstunden wirklich täglich schafft? Mein Monitor zählt leider nicht mit, bei einem freund tut er es und es ist trotz gefühlt den ganzen Tag am PC sitzen deutlich weniger als erwartet. Könnte bei Gelegenheit noch mal nachgucken und schauen was der als Tagesmittel hat. 50 Cent zahlt auch nicht jeder, ich hänge noch bei rund 30.
Aber es ging auch nur gegen die Annahme man könne auch einfach 200 statt 500 € für den Bildschirm ausgeben und dann würde sich die Einsparung auch zügig rechnen.
Auch auf die 25 W Einsparung muss man erstmal kommen bei äquivalenter Leistung des Bildschirms.
Den persönlichen finanziellen Teil kann man noch ganz gut durchrechnen. Wenn man sich darüber hinaus noch Gedanken um die Umwelt macht darf man die anfallende Entsorgung der Geräte nicht vergessen. Solange die Geräte potentiell immer noch in Afrika auf einer Müllhalde landen und ungefilterte Rohstofftrennung stattfindet dürfte die weitere Nutzung des Altgerätes ziemlich günstig aussehen.
cumulonimbus8 schrieb:
1. »Wer misst misst Mist« - ich glaube mal kaum, dass auch auf Vollastmöglichkeit gesetzte Systeme immer in »hohen Drehzahlen« unterwegs sind sondern sich weitgehend runtertakten.
Prinzipiell möchte ich ja zustimmen, aber die Größenordnung des Mist kann man schon abschätzen.
Auch wenn so ein Steckermessgerät nicht allzu hochwertig misst dürfte in der Regel der Wert weitgehend stimmen. Messtoleranz von einigen Prozent, nicht Größenordnungen.
Wenn man dann schätzt, misst und das am Ende mit der jährlichen Stromabrechnung vergleicht und alles zusammenpasst kann man doch davon ausgehen dass es stimmt.

Dass der Takt nicht konstant ist stimmt. Aber das führt deshalb nicht gleich das Messgerät völlig in die Irre und im Mittel hat man bei moderner Hardware dann doch recht genau das erlaubte Maß an Energieverbrauch wenn die Last ausreicht.
2022-11-21 19_20_11-MSI Afterburner v4.6.4 Hardware Monitor.png

scnr

Der TE hat ja vor allem seinen idle Verbrauch geschrieben, unter Last wäre es ja noch mal deutlich mehr.
cumulonimbus8 schrieb:
Ein Blick auf Kühlschränke, Sat-Receiver+TV und den E-Herd offenbaren, dass die so viel futtern, dass der PC gar nicht weiter ins Gewicht fällt. In keinem Falle heraussticht.
Da hilft auch überschlagen, nachmessen und ggf. mit der Abrechnung vergleichen. Bei mir macht die Kategorie PC samt Peripherie nahezu den gesamten Energieverbrauch aus, dagegen sind Kühlschrank (ich habe aber auch nur einen kleineren, nicht mehrere american style wandschränke) und Herd fallen mit rund 10-20% kaum ins Gewicht.
Ich nutze den Herd auch eher sparsam, aber trotzdem. Wer kocht jeden Tag eine Stunde lang auf höchster Stufe? Der Kühlschrank braucht im Monat so viel wie der PC an 1-3 Tagen (bei mir), abhängig davon wie vereist der ist, wie warm und wie oft er geöffnet wird. rund 5 kWh PC pro Tag vs. 5-15 kWh Kühlschrank im Monat laut Messgerät. Dabei ist der Kühlschrank auch alt und das Eisfach nicht dicht, das geht sicher besser.

Wenn beim TE der PC täglich 8 Stunden idle läuft und sonst aus ist sind das immer noch 1160 Wh best case. Der Bildschirm womöglich nicht mit eingerechnet, laut Datenblatt trüge der 440 Wh bei. Dafür kann ich rechnerisch etwa 17,2 l Wasser kochen. (1000g * 80° Differenz / 0.239 J)
Selbst mit den Verlusten in der Praxis sehe ich da eher 3 mal täglich frisch Spagetti für 6 Personen kochen vor mir um das hinzubekommen.
Dann läuft der PC ja vielleicht auch noch 4 Stunden unter Last um nach der Arbeit eine runde zu spielen ...
 
  • Gefällt mir
Reaktionen: Intruder
NikkyD schrieb:
Miss/rechne das selber mal durch, so wirklich richtig liegst du mit deinen Schätzungen nämlich nicht.
Gemessen habe ich schon vor 10 Jahren und dann vor 2 Jahren mit dem aktuellen PC und der derzeitigen Ausstattung nochmals. Und ja, ich vertraue meinen Messgeräten.

NikkyD schrieb:
40W bei "nur" 12h am Tag sind 175 kWh, bei einem neuen Preis von über 50 cent/kWh
Bist du 365 Tage/Jahr zu Hause? Das habe ich noch nicht einmal 2020/2021 mit 100% Home Offfice geschafft und die längere Nutzun an Wochenenden hätte die Abwesenheiten auch nicht ausgeglichen. Da jetzt noch das 100% Home Office auf max. 3 Tage gekürzt werden soll, wird die Bilanz noch "schlechter".

Wie man bis heute im Privathaushalt auf solch astronomische Strompreise kommt, ist mir ein Rätsel. Nahezu alle Grundversorger dürften noch unter den 40 Ct/kWh sein, und dann greift in den kommenden Monaten die Strompreisbremse bis mind. 2024 bei 40 Ct/kWh. Verträge, die bis Jahersende auslaufen, hätte jeder (Umzug die letzen 2-3 Monate ausgenommen), der nicht nur 12-16h/Tag spielt, problemlos zu günstigeren Tarifen "verlängern" können. Mein Strompreis liegt bis 09/2024 bei 36,5 Ct/kWh.

Rechne ich schon, für mich völlig unrealistisch, dann komme ich auf 220 Arbeitstage (bei 100% Homeoffice + 6h Privatnutzung, also 14h/Wochentag), dazu u.U. noch 46 Wochenenden (mit 16h Nutzung) und noch ein paar Feier- und Urlaubstage dazu. Schon sowas ist real, u.U. abseits von Corona, bei mir zu hoch angesetzt. Mache ich anderes wie am PC zu arbeiten/surfen oder TV zu schauen, muss der Monitor nicht laufen.

Damit komme ich auf ca. 70 €/Jahr mögliche Ersaparnis. Macht bei 500€ für den Monitor schon gut 6 Jahre, die er durchhalten muss, um sich finanziell für mich zu lohnen. Rechne ich nach 2 Jahren einen höheren Strompreis wie heute, sind es halt "nur" 5 Jahre.

Das ist aber nur die rein monetären Rechnung, welche die übrigen Ressourcen noch nicht einbezieht. Wenn mein regionaler Stromversorger mich nicht belügt, bis ich derzeit bei 100% Ökostrom aus regionaler Wasserkraft. Der Monitor DELL U2711 wurde 2011 produziert, müsste jetzt, voll funktionsfähig, entsorgt werden und es müsste ein neuer Produziert und durch die gesamte Verkaufkette trandsportiert werden.

NikkyD schrieb:
sprechen wir hier im Jahr von 90€ oder mehr die du sparen würdest. Wenn der Monitor nicht gleich 500€ kostet sondern nur 200€ dann wäre das Geld in 3 Jahren locker drinnen.
Weniger wie den DELL U2711, also mind. 27" bei WQHD, IPS, sRGB und vor allem eine einigermaßen homogene Ausleuchtung kommt nicht in Frage. Neu würde es derzeit ein 31,5-32" WQHD Monitor, und wenn ich in Sachen homogene Ausleuchtung kein Lotto spielen will, bin ich derzeit bei mind. 500€ (laut Geizhals).

Der neue Monitor kommt nach PRAD-Angaben auf mind. 30W Verbrauch, wobei die dortigen 140 cd/m² bei mir tagsüber nicht immer reichen dürften. Also rechne ich mal eher mit 40W, Geizhals gibt als "typisch" sogar 68W an, das dürfte aber mit HDR sein, was ich nicht brauche.

Bigeagle schrieb:
Also sowas wie die Leistungsbegrenzung der CPU so runtersetzen dass sie nicht zu stark hochtaktet nur weil man durch die Tabelle scrollt.
Dann ist man wieder bei der alten Frage ob es ist günstiger ist, länger bei niedrigem Verbrauch zu warten oder kürzer bei höherem Verbrauch und damit wieder schneller im Idle bei noch weniger Verbrauch zu sein.

Bei modernen CPUs könnte man einfach die Stromaufnahme beschränken. Effektiver (bei mit mit dem i9-9900k) war es aber, z.B. im BIOS alle Stromsparmodi C7-C10 im BIOS zu aktivieren. Die waren bei meinem ASRock standardmäßig nicht aktiv und haben, ohne jede spürbare Einschränkung, zu 4W weniger Idle-Verbrauch unter Win 10 geführt (von 42W auf 38W an der Steckdose).

Bigeagle schrieb:
Ist die haltbarkeit von Bildschirmen so schlecht? meine letzten 3 haben problemlos deutlich mehr als 5 Jahre mitgemacht und bei dem einzigen defekten (Röhren-)bildschirm den ich hatte weiß ich nicht wie alt der war. Davon ist auch nur einer von Eizo, die anderen waren billige von LG und Samsung.
Ich weiss es nicht. Der Iiyama vorher hat gut 6 Jahre gehalten, der DELL ist jetzt, trotz CCFL, bald 11 Jahre im Betrieb. Alles über Garantieende hinaus ist für mich Spekulation auf eine Langlebigkeit, was bei Fernsehern wohl oft nicht funktioniert. Ohne einen zusätzlichen Mehrwert ersetze bei solchen Schätzungen kein funktionierendes IT-Equipment.

cumulonimbus8 schrieb:
Ein Blick auf Kühlschränke, Sat-Receiver+TV und den E-Herd offenbaren, dass die so viel futtern, dass der PC gar nicht weiter ins Gewicht fällt. In keinem Falle heraussticht.
Meine obige Schätzung kommt auf ca. 4700 Stunden PC-Nutzung, realistisch sind bei mir u.U. auch nur 4000 Stunden/Jahr (PC im Idle und Monitor aktiv, die u.U. 10% PC-Nutzung bei 150-240W lasse ich mal genauso außen vor wie durchlaufende Nächte ohne Monitor).

Das sind bei mir real mind. 40+80W = 120W, also 480 kWh. Bei einem Gesamtstromverbrauch (inkl. täglichem Kochen) von 2000 kWh sind das fast 25%. Aber ja, mein PC dient seit 11 Jahren auch als TV, nur die DreamBox als Receiver kommt noch dazu.

Für mehr Realismus müsste ich noch den PC durch den Arbeitslaptop (an 220 Tagen zu 8h) ersetzen. Der dreht aber bei Videokonferenzen und auch bei sonstiger Nutzung oft am Rad, weshalb ich inkl. Dock. mal 20W/Stunde ansetze. Ersparnis wären damit 36 kWh/Jahr. Bleiben für die gesamte PC-Nutzung also noch grob 440 kWh/Jahr, also 22% meines Gesamtverbrauchs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bigeagle und Intruder
Cardhu schrieb:
Aber vllt hast du auch eine gute Begründung, wenn du "davon ausgehen musst" :daumen:
Hast du die Beiträge gelesen? Manche Leute schreiben dass es ihnen das Thema Effizienz einfach zu 100% Wurst ist. Das hat im Jahr 2022 nicht mehr viel mit Meinung zu tun, sondern mit Dummheit. Nicht nur aus finanzieller, sondern auch aus ökologischer Sicht. Dass ich davon ausgehe, dass diese Leute den Strom nicht selber bezahlen, lässt mich zumindest noch ein wenig hoffen dass dem nicht so ist ;)

Man kann maximale Performance mit Energieeffizienz verbinden, und das mit wenig Zeitaufwand. Wer das nicht tut ist für mich ein Dinosaurier - oder bezahlt seinen Strom nicht selber ;)
 
  • Gefällt mir
Reaktionen: KitKat::new()
gymfan schrieb:
und dann greift in den kommenden Monaten die Strompreisbremse bis mind. 2024 bei 40 Ct/kWh.
Für den Basisbedarf von 80 Prozent des Vorjahresverbrauchs.
Und 40 Ct/kWh ist viel, sehr viel.
 
0mega schrieb:
Manche Leute schreiben dass es ihnen das Thema Effizienz einfach zu 100% Wurst ist. Das hat im Jahr 2022 nicht mehr viel mit Meinung zu tun, sondern mit Dummheit.
also sind Menschen, die sich eine RTX 4090 und oder ein I9-13900K offen betreiben oder gar übertakten, dumme Menschen?
Denn wer solche Hardware kauft, muss ja Effizenz bei solchen Stromverbräuchen vollkommen schnurz sein. Also ehrlich gesagt mir wäre es vollkommen egal denn schlußendlich entscheide ich mich dann ja bewusst für diese Hardware und aus dem Grund, weil ich die Leistung auch ausnützen will.
Mal abgesehen von Kids, die zu Hause bei den Ältern wohnen, wer würde deiner Meinung nach keinen Strom bezahlen? In der Partnerschaft oder einer WG wird schlußendlich alle Kosten geteilt werden und wenns nicht so wäre, dann wäre spätestens bei der zweiten überteuerten Rechnung miese Laune in der Bude und das Thema würde sich von selbst erledigen.
0mega schrieb:
Nicht nur aus finanzieller, sondern auch aus ökologischer Sicht.
Was ist heute aus ökologischer Sicht denn richtig?
Teure Leistungsstarke Hardware kaufen die viel Energie vernichtet, diese dann herunter takten um ne Handvoll € im Vergleich der Anschaffungskosten zu sparen mit Sicherheit nicht!
Ökologischer wäre es gewesen wenn man im Vorfeld die Hardware entsprechend den Bedürfnissen angepasst gekauft hätte und zwar günstigere Hardware. Somit hat man sowohl Geld bei der Anschaffung wie auch Geld im Betrieb gespart.

Was ist ökologischer? Wenn man ältere Geräte mit "höheren Verbräuchen" alle paar Jahre gegen andere Geräte austauscht obwohl dieser technisch einwandfrei sind, nur um eine Handvoll Euros im Vergleich zum Neukauf der neuen Geräte zu sparen? Nicht jeder verkauft seine Altgeräte und vieles landet im Elektroschrott, im Wald oder auf ner Deponie.
Geld spart man, indem man sein Zeug nutzt bis es kaputt ist, versucht es kostengünstig Instand zu setzen - was Klima und Umwelt zugute kommt!

Na wie gut, das ich nen Dinosaurier bin.
Im Wohnzimmer steht noch ein 32" Röhrenfernseher der mal eben locker flockig 30 Jahre alt ist.
und das Beste = er funktioniert einwandfrei mit SD TV, Playstation 2 und Xbox.
Im Gegensatz zu Familie/Freunde habe ich die Kiste 25 Jahre lang nie vom Strom getrennt. Standby und gut war. Wo meine Familie/Freunde schon x neue Geräte kaufen mussten, läuft die Kiste noch prächtig.
Irgendwann bin ich natürlich auch auf den Zug der Flat Screens aufgesprungen.
Familie/Freunde haben nichts als Energie sparen im Kopf... Steckdosenleiste und TV wird Nachts vom Strom getrennt und bei Nutzung eingeschaltet. Ergebnis ist, das man in 14 Jahren den 4ten FlatscreenTV sich gekauft hat wo ich noch immer meinen ersten hier stehen habe!

Was ist nun ökologischer? 4 Flatscreen TVs kaufen weil man ein paar Euro "Strom sparte" oder Standby zahlt und dafür noch immer den ersten TV nutzt?

Habe seit über 30 Jahren meine Stereoanlage nicht mehr vom Strom getrennt und das Ding hat nen Klang wie am ersten Tag. Freunde haben dagegen schon die 4te... und nicht, weil sie unbedingt was neues wollten.

Also entweder bin ich ein Glückspilz und mir geht nichts kaputt oder aber ich weiß auch nicht.

Und ja - bin wirklich nen Dinosaurier und dann sogar noch stolz drauf!
Der Frau habe ich vor vielen Jahren einen V6 Diesel vor die Tür gestellt (mittlerweile 16 Jahre alt) und ich selber fahre seit sehr vielen Jahren einen V8 Diesel (ebenfalls 16 Jahre alt) und laut TÜV Prüfer sind die in einem Zustand wo sich andere 2 bis 3 Jahre alte Fahrzeuge sich eine Scheibe von abschneiden könnten und zum Thema "Verbrauchslüge" schweige ich lieber. Unsere Kisten verbrauchen Landstraße/Autobahn, wenn man sie laufen lässt, um Welten weniger als diese neumodischen Spritsparwunder.
Wenn es nach mir geht, bleiben die Kisten auch die nächsten 16 Jahre bei mir und falls was kaputt geht, wirds halt repariert. Ersatzteilversorgung ist über den Hersteller kein Problem. Das ist locker für die nächsten 30 Jahre noch gesichert. Klar gibts einige Teile nicht von heute auf morgen. Dann werden Bestellungen gesammelt und ab einer bestimmten Menge werden die Teile nachgebaut. Klappt wunderbar.

Könnte ja auch "anti öklogisch" sein und meine beiden guten technisch einwandfreie alte Gebrauchte verkaufen und mir dafür (selbe Fahrzeugklasse / ähnliche Ausstattung) vermeintlich saubere sparsamere junge Gebrauchte für schätzungsweise 150000€ vor die Tür stellen.

0mega schrieb:
oder bezahlt seinen Strom nicht selber ;)
bevor du mir eventuell unterstellen möchtest, das ich den Krafstoff nicht selber zahle - doch mache ich. Alleine vor Oktober sind mal eben 475€ bei der Tankstelle geblieben 😉

ob das ökologisch war? 🤔
Ergänzung ()

Nickel schrieb:
Und 40 Ct/kWh ist viel, sehr viel.
tja woran mag das wohl liegen?? In Europa sind die Strompreise am höchsten! Wer mag da wohl Spitzenreiter sein und aus welchen Gründen mag das wohl so sein?

1669076877732.png


1669076905743.png


1669076924396.png


würde man die Steuern Abgaben senken, anpassen, wäre der Strompreis erträglicher. Aber nope... man macht genau das Gegenteil und treibt die Preise künstlich weiter nach oben.
Dann noch bestehende Atom und Kohlestromkraftwerke aus idiologischen Gründen vom Netz nehmen wollen, das teuerste verfügbarste Gas aufkaufen und dann zur Stromgewinnung verheizen, damit die Strompreise noch weiter hoch getrieben werden.

Das es günstiger geht, sieht man ja überall in der Welt (bis vielleicht eine handvoll Ausnahmen)
 
Zuletzt bearbeitet:
Intruder schrieb:
Dann noch bestehende Atom und Kohlestromkraftwerke aus idiologischen Gründen vom Netz nehmen wollen,
Benenne diese Gründe doch bitte
 
Wer mir nicht glaubt kann die Preise der Stadtwerke München googlen, in dem Brief von vorgestern steht 58 c/kWh.
 
  • Gefällt mir
Reaktionen: aklaa
0mega schrieb:
Hast du die Beiträge gelesen? Manche Leute schreiben dass es ihnen das Thema Effizienz einfach zu 100% Wurst ist.
Joar und? Und weil es ihnen egal ist, weil die paar Euro am Ende auch nix mehr ausmachen, schließt du daraus, dass sie nicht selbst zahlen?
Wenn ich 20W die Stunde spare bei 8h am Tag und 365 davon im Jahr, sind das 58kWh. wow. Wenn man sich deswegen Gedanken machen muss, sollte man sich vielleicht noch eher Gedanken machen.
0mega schrieb:
Das hat im Jahr 2022 nicht mehr viel mit Meinung zu tun, sondern mit Dummheit.
Eigentlich nicht. Das ist einfach eine Beleidigung von dir, die weder was mit Meinung noch Verstand noch sonstwas zu tun hat. Es entspricht nicht deiner scheinbar sehr überschätzten Ansicht, welche dich auf ein Podest zu erheben scheint.
0mega schrieb:
Wer das nicht tut ist für mich ein Dinosaurier - oder bezahlt seinen Strom nicht selber ;)
Ich beglückwünsche dich zu dieser außerordentlich beschränkten Sichtweise :)
Aber schwarzweiß-Denken ist ja bekanntlich auch deutlich einfacher.
 
Intruder schrieb:
es macht meiner Meinung nach keinen Sinn eine Smart Home Steckdose mit einem Eigenverbrauch zu nutzen der schlußendlich höher liegt als das auszuschaltende Gerät im Standby.
Macht auch keinen Sinn was du schreibst. Besagte Funksteckdose verbraucht im Standby 0.31W. Daran hängen etliche Geräte, USB-Hub, PC, Monitor...). Das ganze Zeug braucht >12W im Standby. Wenn ich nur einmal vergesse, den Schalter zu drücken, hat sich die Steckdose schon wieder für Wochen amortisiert. Also wovon redest du überhaupt?

An die, denen "die paar Watt" egal sind. Warum disktuiert ihr hier überhaupt mit? Sowas werde ich wohl nie verstehen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 0mega und just_f
@Cardhu es geht hier nicht nur um 20W. Es geht hier um Leute, die im Office Betrieb mit Höchstleistungsprofil, fixem vcore und all core OC rumdümpeln und 600W ziehen. Und selbst wenn es nur um 20W ginge. Wenn jeder Gamer 20W spart, die er einfach nicht braucht, spart das nicht nur Geld sondern auch das ein oder andere Windkraftrad, ohne IRGENDEINEN negativen Effekt mit sich zu ziehen. Ergo bleibe ich dabei, wie ich solche Menschen nenne. Das hat nichts mit schwarz/weiß oder beschränkter Sichtweise zu tun, sondern mit gesundem Menschenverstand.

Ich habe auch einen i9-7980xe, der auf 5GHz läuft - wenn es gebraucht wird. Aber durch ersetzen eines alten U2711, Erstellung von automatischen Profilen, Anpassen der OC usw. konnte ich den Gesamtverbrauch unter Volllast von 640W auf 500W drücken und im desktop von 340W auf 220W.
 
Vielleicht sollten wir einfach mal zurückkommen zur Ausgangsthematik:
  • Es gibt Leute die möchten Strom sparen, jeder € zählt
  • Wieviel Aufwand diese Leute betreiben möchten ist unterschiedlich
  • Gesucht werden möglichst einfache Methoden die einen messbaren Effekt erzielen
  • Wir unterscheiden zwischen bewusstem Lastbetrieb und idle
 
  • Gefällt mir
Reaktionen: BeBur
KitKat::new() schrieb:
Benenne diese Gründe doch bitte
na da musst du mich doch nicht fragen. Da musst du die fragen, die diese Dinger mit aller Gewalt vom Netz nehmen wollen wo im Gegenzug wo anders auf der Welt (auch Europa) die Dinger (naja nicht gerade Kohle aber Atom) frisch gebaut und in Betrieb genommen werden.

Btw. was würde dagegen sprechen Kohlekraftwerke mit Hilfe von Filtern, Kats und sonstigen Lösungen "sauber" zu machen? Hat eigentlich mal jemand darüber nachgedacht? Stichwort "Clean Coal"
Was ist saubere Kohle?
Dabei wird die Kohle nicht mit Luft, sondern mit reinem Sauerstoff verbrannt. Übrig bleibt nach der Verbrennung fast nur noch Kohlendioxid und Wasser. Das Wasser wird auskondensiert, das verbleibende CO2 wird verflüssigt und wie gehabt tief unter der Erde verstaut.
Möglichkeiten scheint es wohl zu geben. Woran hapert es denn?

Was ist mit der Piezonukleare Reaktion? Könnte man über diesen Weg "sauberen Atomstrom" herstellen?

Fragen über Fragen... über die ich keine Antwort kenne 😁
Wenn man sucht, findet man sehr viele Möglichkeiten und Optionen beide Arten der Energiegewinnung auch in der Zukunft zu nutzen aber man hört nur ständig abschalten... abschalten... abschalten. Am liebsten vor x Jahrzehnten als erst morgen.
Ergänzung ()

Jongleur666 schrieb:
Macht auch keinen Sinn was du schreibst. Besagte Funksteckdose verbraucht im Standby 0.31W.
Wenn DEINE Funktsteckdose im Standby nur 0,31 Watt braucht, na dann freu dich doch. Es gibt auch noch ältere Funksteckdosen, welche 1 Watt im Standby benötigen und wenn sie eingeschaltet wird, dann steigt der Energiebedarf sogar noch an. Kannst Dich ja gerne mal im Netz darüber belesen. Hatte extra einen Link mit beigefügt woraus ersichtlich ist wieviel Strom sich die Steckdosen ziehen und was dies im Jahr kostet.
Jongleur666 schrieb:
Daran hängen etliche Geräte, USB-Hub, PC, Monitor...). Das ganze Zeug braucht >12W im Standby.
Tja was soll ich dazu sagen? Hättest effizentere Hardware kaufen sollen, die im Standby nicht so viel Energie frisst?

Ich habe an meiner Funksteckdose ein 10 Jahre altes System (abgeshen von der GPU) welches aus Rechner, 27" FHD Bildschirm, beleuchtete Logitech Tastatur die am Strom hängt, Maus, Neon Röhre hinter dem Bildschirm und ein Handylade Gerät steckt. Der ganze Mist hat im Standby (obwohl die Neon Röhre weiter leuchtet und nicht im "Standby ist") einen Stromverbrauch von 11,4 Watt! Inklusive blau leuchtender Neon Röhre! Wenn ich den Monitor vom Strom nehme, habe ich einen Standby Verbrauch von 11,3 Watt, Wenn ich den Rechner ausstecke, habe ich einen Standby Verbrauch von 9,9 Watt. Ziehe ich noch die Tastatur raus, komme ich auf 9,8 Watt. Ladegerät raus ziehen zeigt keine Veränderung des Verbrauches.

Also rein PC, Monitor und Tastatur beläuft sich de Standby Verbrauch auf gerade mal 1,6 Watt. Handyladegeräte haben sogut wie kein Verbrauch wenn darüber nichts geladen wird. Wenn ich den Stecker davon raus ziehe, bleibt die Anzeige unverändert.

Meine Funksteckdose, für die ich mich vor Jahren entschieden hatte (TP-Link Kasa 110) - aus Gründen der Einbindung ins vorhandene Ökosystem und mangelnder Alternativen - hat laut Angaben im Netz einen Standby Verbrauch von ca. 0,7 Watt und verbraucht unter Last ungefähr 1,4 Watt.

Wenn ich nun meine blaue Neon Röhre ausstecke, sinkt mein Verbrauch auf 1,2 Watt herunter.
Sprich meine blaue Neon Röhre verbraucht 8,4 Watt.

Nicht jeder hat eine blaue Neonröhre hinter dem Bildschirm kleben... also können wir gleich von den 11,4 Watt 8,4 Watt abziehen! Also nach Adam Ries macht das ganz genau 3 Watt Standby die anliegen.

Also fangen wir mal an von 3 Watt herunter zu rechnen:
  • Monitor 0,1 Watt
  • Tastatur 0,1 Watt
  • PC 1,4 Watt
  • Ladegerät = passiert nichts
_________________________________
Ergibt rein für die Hardware des PCs ein Standby Verbrauch von 1,6 Watt!

Übrig bleiben ominöse 1,4 Watt, die nur noch durch die Funksteckdose selber kommen müssen, da ja nichts anderes mehr drin steckt 😂 Wenn ich die Funksteckdose nun ausschalte, bleiben 0,7 Watt übrig.
Aber ja - es gibt auch sparsamere nur wie gesagt zu dem Zeitpunkt gab es keine Alternativen zu der hier.

Mittlerweile würde ich gerne auf die Funksteckdosen von AVM umsteigen nur ich sehe nicht ein für eine Funksteckdose knapp 100€ auszugeben um gefühlt 2,50€ an Stromkosten im Jahr zu sparen.
Jongleur666 schrieb:
An die, denen "die paar Watt" egal sind. Warum disktuiert ihr hier überhaupt mit? Sowas werde ich wohl nie verstehen...
Wenn du meine Rechnung oben verfolgt hast und ich soweit im Stande war, diese simple Rechenaufgabe zu lösen, habe ich um 1,6 Watt Standby zu eliminierene eine Funksteckdose für xx€ gekauft, welche im Betrieb 1,4 Watt benötigt welche ich zusätzlich auf meine Stromrechnung packen muss, damit ich schlußendlich 24/7 für jede Funksteckdose im Haus noch mal 0,7 Watt einrechnen muss.

Das bedeutet schlußendlich, das wenn ich keine blaue Neon Röhre hinter dem Bildschirm hätte (die leuchtet wenn Strom anliegt), treibe ich so einen Aufwand um gerade mal 0,9 Watt einzusparen!!!

"die paar Watt".... wenns wenigstens ein ganzes volles Watt wäre, was ich mit einer Funksteckdose sparen könnte!!!

Noch bescheuerter wird die Rechnung, wenn man ausschließlich einen Standby "sparsamen" TV an einer Funksteckdose betreibt. Standby vom TV sind in meinem Fall deutlich geringer als die Standbykosten für die Funksteckdose 🤣

und das ist der Punkt, den ich versuchte dir klar zu machen!
Wenn du real wirklich sparen willst, dann verzichte auf die Funksteckdose und nimm eine Steckdose mit einem realen physischen Schalter OHNE WiFi, ohne Schnickschnack und Beleuchtung der weder im Betrieb noch Standby Strom zieht und Kosten verursacht!

Wenn du das nicht verstehen kannst oder willst, dann kann ich dich auch nicht verstehen! Dann frage ich mich warum du so eine Diskussion anleierst und vor der Realität die Augen verschließt und sie nicht wahr haben willst.
 
Zuletzt bearbeitet:
Intruder schrieb:
na da musst du mich doch nicht fragen.
du hast also keine Ahnung warum die vom Netz gehen?
Das einzige was du weißt, ist dass es Gründe gibt? :D

Intruder schrieb:
Hat eigentlich mal jemand darüber nachgedacht? Stichwort "Clean Coal"
? 😀
Ich glaube da muss man nichts dazu sagen
 
@KitKat::new() 🤣
KitKat::new() schrieb:
du hast also keine Ahnung warum die vom Netz gehen?
klar habe ich das nur dazu schweige ich lieber 😏

KitKat::new() schrieb:
Das einzige was du weißt, ist dass es Gründe gibt? :D
:D <--- wie passend das der Kollege hier auch grün ist - das reicht doch schon als Hauptbegründung aus 😁

KitKat::new() schrieb:
Ich glaube da muss man nichts dazu sagen
jo weil das würde zu viel OT am Ende und taucht ins Aquarium dann ab
 
Erstaunlich, dass so wenige selber was gemessen haben, keine Tools erwähnen/verlinken und von dem Volllastverbrauch reden.

Beim Zocken soll der PC die Leistung bringen, also ist der Verbrauch währenddessen voll okay. Dafür hab ich ihn ja gekauft. Jedoch nutze ich den PC auch für viele andere Sachen und läuft dementsprechend den ganzen Tag über. Da ist auch das Problem.
Wenn im Desktop-Betrieb ein low-end PC mit 30-40W auskommt, kann ich da nicht erwarten, dass mein high-end PC diesen verbrauch im Idle/Desktop-Betrieb auch erreicht? Die Technologie scheint ja dafür da zu sein.

Verbrauch vom ganzen PC (nur PC, am Netzteil Eingang gemessen):
Ausbalanciert: 120W
Energiesparmodus: 115W
Früher hatte ich auch mal diese Werte, mit der selben Hardware:
Ausbalanciert: 88W
Energiesparmodus: 77W

Bin mir nicht sicher, wieso es nun höher ist. Mir war aber auch aufgefallen, dass der Multi Display Power Saver von Nvidia Inspector keine Wirkung mehr auf den Verbrauch der GPU hatte. Den Power-State konnte es aber immer noch ändern... Allein der MDPS hatte damals schon 20-30W ausgemacht. Bei 1440p musste ich allerdings P5 anstatt P8 erzwingen.
Nvidia Inspector wurde aber auch echt lange nicht aktualisiert (woher kommt die Beta auf de CB Download-Seite?).
Und damit kommen wir zum Multi Display Betrieb. Sobald man mehr als ein Display hat, geht die GPU nie auf P8 oder P5, sondert bleibt immer bei P0. Das ist der Power-State fürs Zocken! Vielleicht bringt ja das Tool bei euch noch was.

Zusätzlich habe ich ein Powershell-Script geschrieben, welcher bei Inaktivität den Powerplan von Windows auf Energiesparen stellt. Das brachte auch mal 10W. Mittlerweile sind es nur noch 5W.

Im Artikel wurden Lüftergeschwindigkeiten erwähnt. Ich kontrolliere diese zwar nur zum Kühlen und wegen der Lautstärke, aber dafür habe ich auch was geschrieben, was Gehäuselüfter auch anhand der GPU-Temperaturen steuern lässt. Da ich nur DC-Lüfter habe, habe ich viele Lüfter bei unter 40°C einfach aus (das geht nicht mit jedem PWM-Lüfter).

Ich bin, wie auch der Thread-Starter sehr daran interessiert den Verbrauch des PCs zu senken, da ich diesen immer ganzen Tag nutze und sporadisch mal zocke. Wenn ich den PC nur zum Zocken anwerfen würde, wäre es mir egal.

Ich habe in diesem Thread (oder in dem des Artikels) was von der Pizzamod gelesen. Das scheint nur Ryzen 3000 und 5000 zu supporten. Ich habe allerdings ein Ryzen 7 2700 mit einer RTX 2070.

Meine beiden Bildschirme haben 144Hz. Da ich, durch die beiden Bildschirme, im rahmenlosen Vollbildmodus zocken möchte, habe ich die 144Hz in Windows eingerichtet.
Sowas lässt sich ggf. mit AutoActions optimieren. Mir ist auch mal aufgefallen, dass die GPU deutlich höheren Verbrauch hat, wenn man verschiedene Aktualisierungsraten bei den Bildschirmen nutzt (Display 1 mit 144Hz; Display 2 mit 60Hz). Auch war der Verbrauch deutlich höher, wenn beide auf 144Hz waren als wenn beide mit 120Hz laufen.

Notebooks kriegen viel mehr mit 60W hin, als wenn ich mein PC auf 60W manuell limitiere. Das ist alles uncool.
Sogar mit dem Browser surfen macht kein Spaß, wenn man nur in Windows den Energiesparplan aktiviert hat.
 
  • Gefällt mir
Reaktionen: Jongleur666 und BeBur
Zurück
Oben