Green Software

Metzlor

Lt. Commander
Registriert
Juni 2006
Beiträge
1.101
Hallo,

es wird viel über Green IT gesprochen, allerdings nur in Verbindung mit Hardware, nie mit Software, obwohl dort viel Einsparpotential besteht!
Klar in Programmen oder Spielen sind Berechnungen notwendig womit der Stromverbrauch natürlich steigt. Allerdings nicht im Menü des Spiels etc.
Ein Notebook hat natürlich einen geringeren Stromverbrauch als ein Desktop, der max. Verbrauch ist ja bei mir auch 90 Watt.

Habe gerade mal per Messungen mit Energiemessgerät gemacht Windows 7 mit Notebook Samsung RF711.

Stromverbrauch Desktop: 20 Watt
im Spielmenü Team Fortress 2: 58 Watt (keine Animation)
im Spielmenü Starcraft 2: 60- 70 Watt Watt (kleine Animation)
Videowiedergabe: 35 Watt.

Bei einem Desktop müsste man den Verbrauch wahrscheinlich verzwei oder verdreifachen. Klar man spielt normalerweise wenn man ein Spiel startet, allerdings wie oft geht man einfach mal eben raus oder stellt ein Spiel auf Pause.
Dort sind wahrscheinlich weltweit auch noch einige GWh Einsparpotential die unnötig verpulvert werden, weil danach die Studios nicht bewertet werden.

Bei Hardware kommt es auf jedes Watt an. Bei Software kann man ja auch nur die Auslastung angeben und die beeinflusst natürlich die Energieeffizienz. Nur damit kann man keine Werbung machen, weil es schwierig ist anzugeben.
Was haltet ihr davon?


Gruß
Metzlor
 
ist mir egal

(das wolltest vermutlich nicht hören ;))
Die sollen die Bugs raus programmieren und nicht auf den Stromverbrauch achten.
was stören mich die 0,2 Cent was der Menü Aufenthalt an strom kostet?
 
Schon auf Grund der vielen verschiedenen Subsysteme in modernen x86 Computern wird es kaum möglich sein, Software zu programmieren, die möglichst wenig Strom verbraucht, zugleich aber das bestmöglichste Ergebnis liefert.

Das größte Einsparpotential liegt ohnehin nicht bei den wenigen Gamern, sondern bei den vielen PCs im Produktiveinsatz und beim Nutzer selber.
 
Mit dem Abschicken dieses Beitrag hast du vermutlich Bereits mehr Strom verbraucht als es Einsparpotenzial im Starcraft 2 Menü gibt ;)
 
Die Leute wollen cool animierte Menüs. Die wollen, dass im Login-Screen n Drache angeflogen kommt, dass n Schlachtschiff durchs Bild rauscht oder einfach nur was blinkt und flackert. Sowas gehört zum Gesamteindruck.
Damit das Produkt also den gewünschten Effekt erzielt muss es n paar Watt extra verballern.

Außerdem: Was kratzt dich Green Software, wenn die wenigsten Spieler überhaupt einen Frame Limiter verwenden? Wie oft hast du allein hier im Forum "wäh wäh, ich hab mit meiner Überpornomega-Grafikkarte nur 150 fps, das sollten doch mehr werden"?

Außerdem: Ich nutz meinen PC an kühlen Tagen (also grob von Ende September bis Anfang Mai) als Heizung. Wenn mir kalt ist zock ich ne Runde BF3, das wirkt schneller als wenn ich den Heizkörper aufdrehe.
 
Ich denke das wird erst interessant sobald die Spiele groß auf mobilen Geräten mobil gespielt werden um dann eben eine längere Akkulaufzeit zu erzielen...

Stromsparen im Desktopbereich halte ich für absolut überflüssig, die Energie die man da ins Energiesparern investiert sollte man lieber mal investieren und sich über den Mythos der Energieknappheit informieren...
Denn die einzigen die etwas von unserem Energiesparwahn haben sind diverse großkonzerne :p
.
 
Pandora hat recht, gerade die fossilen Energieträger sind unendlich vorhanden und deren Verbrennung zur Energiegewinnung ist ebenso unbedenklich (Klimalüge) wie der Betrieb von Atomkraftwerken (Tschernobyl- bzw Fukushimalüge).
 
Was haltet ihr davon?

Klingt einleuchtend. Un nu?



PS: @Doc
Ich nehme einfach mal an, Pandora wollte darauf hinaus, dass derselbe "Strom", wenn er nicht von den Privathaushalten abgegriffen wird, von der Industrie benutzt wird. Der Privathaushalt spart und spart und spart, "spart" aber kein Geld, weil die Preise nicht niedriger werden. Wohingegen die Industrie mehr Strom zur Verfügung hat, weil das Gesparte wird dann in der Industrie verballert.
 
Zuletzt bearbeitet:
Sinkt der Gesamtbedarf, dann wird mittelfristig auch das Gesamtangebot entsprechend der technischen Gegebenheiten sinken.
 
Ich lehne mich jetzt mal weit aus dem Fenster, da ich mir wirklich nicht mehr sicher bin. Ich erinnere mich, und bitte korrigiert mich wenn es nicht stimmt, dass der Strommarkt in Stromzertifikate aufgeteilt wurde bei dem nur ein begrenztes Kontingent von Strom verkauft wird. Das bekommen die Endkunden wie Privathaushalte und eben die Industrie.

Verbraucht jetzt der Privathaushalt weniger, wird nicht weniger Strom gebraucht, die Industrie kann aber nun mehr Zertifikate kaufen und daher auch verbrauchen. Demnach würde eine Veränderung der Privathaushalte keine KWh einsparen, sondern nur umverlagern in die Industrie.

Wenn dies so stimmt, dann ändert sich nichts.
 
Daaron schrieb:
...Außerdem: Ich nutz meinen PC an kühlen Tagen (also grob von Ende September bis Anfang Mai) als Heizung. Wenn mir kalt ist zock ich ne Runde BF3, das wirkt schneller als wenn ich den Heizkörper aufdrehe.

Kommt mir mehr als nur bekannt vor. Dafür weißt man aber im Sommer manchmal nicht, was man gegen die Hitze machen soll ;)


Das man durch Software zu Stromeinsparungen bei Desktop PC's oder NBs kommt, halte ich auch eher für unwahrscheinlich. Bei Mobilegeräten ist es, wie shcon erwähnt, interessanter wegen der Laufzeit.

Denke eher, das es Sinn macht, die Treiber so weiter zu entwickeln, dass die Hardware möglich schnell in den Stromsparmodus kommt (und natürlich wieder raus).
 
Nein, man hatte die optimale Lösung schon parat.

Das war, dass während im 2D Modus eine winzige Onboard-Einheit rechnete und die Bilder auf den Desktop brachte, und wenn 3D angesagt war wurde der 3D Beschleuniger mit seinem Ram dazugeschaltet. Das war so perfekt das System... Leider wurde es später dann vernichtet. Heute könnte der Kram funktionieren, und zwar mit den neuen Intel/AMD Systemen. Leider auch hier wieder der Fehler: AMD lässt dann zu, dass man ein Crossfire einrichtet (was jedoch zu Mikrorucklern führt) anstatt eine Art Power-Safing-Funktion einzubauen, welche während des Desktop-Usings (jetzt fang ich mit dem Denglisch auch schon an) die Onboard Komponente im Prozessor nutzt, und für 3D die Grafikkarte einschaltet.

So war es früher in PCI Systemen auch. Wir hatten damals noch die 2D Karten, und konnten dann z.B. die Voodoo 2 dazukaufen. Ein Kabel verband die beiden Karten, und an die Voodoo 2 kam dann der Monitor dran. Wenn 2D gemacht wurde, rannte die 2D Karte, wenn es 3D Spiele gab rannte die Voodoo2. Das hat man dann später abgeschafft.
 
Was du ansprichst, ist doch jetzt in Form von Lucids Virtu aktuell. Wobei das nicht soo dolle ist. Musst halt das passende Board haben, mit dem Z Chipsätzen z.B. Da kannste dann dein Monitorkabel an die IGP anschließen und je nach Programm/Game rechnet entweder die IGP oder die dedizierte Grafikkarte.

Kann aus meiner Erfahrung sagen, dass mich die aktivierte Lucidlösung mit Kabel an der IGP 10 Frames in BF3 gekostet hat. Da ich mitlerweile wieder nen SLI System habe, will ich gar nicht wissen ,was da dann alles schief geht ;)

Aber früher dürften die ganzen Vodookarten zum einen nicht allzu viel Strom gezogen haben, zum anderen dürften ja kaum Stromsparmechanismen gehabt haben. Ist halt die Frage, ob die damals wirklich inaktiv und somit Strom gespart haben. Da dürfte sich damals wohl kaum einer so für interssiert haben, wie es heute der Fall ist...

Aber das war ne geile Zeit, hab letzens beim aufräumen meine Diamond Monster 3D gefunden :D
 
Onkelhitman schrieb:
Ich erinnere mich, und bitte korrigiert mich wenn es nicht stimmt, dass der Strommarkt in Stromzertifikate aufgeteilt wurde bei dem nur ein begrenztes Kontingent von Strom verkauft wird. Das bekommen die Endkunden wie Privathaushalte und eben die Industrie.

Da irrst du dich aber ganz gewaltig.
stell ich mir auch komisch vor... Chef zu seinen Arbeitern:
sorry Leute, am 30. wird nicht mehr gearbeitet, wir bekommen keinen Strom. :D

Ökostrom Zertifikate Interessiert die Industrie vermutlich nicht im geringsten.
aber der Privatman Freut sich natürlich wenn "aus seiner Leitung" Ökostrom kommt.

wird weniger Verbraucht, dann wird Weniger Produziert.
Und das Quasi in Echtzeit, denn es gibt kaum Stromspeicher.
und sowohl über als auch Unterproduktion würde die meisten Technischen Geräte kaput machen.
 
Doc Foster schrieb:
Pandora hat recht, gerade die fossilen Energieträger sind unendlich vorhanden und deren Verbrennung zur Energiegewinnung ist ebenso unbedenklich (Klimalüge) wie der Betrieb von Atomkraftwerken (Tschernobyl- bzw Fukushimalüge).

:rolleyes:
Viel eher meinte ich das wir die technischen Möglichkeiten haben zu einem günstigeren Preis nachhaltig genug Strom zu erzeugen das jegliche Sparmaßnahmen unnötig würden. Das Problem dabei ist nur das dabei die die jetzt den Energiemarkt kontrollieren die großen Verlierer sind.
.
 
Warum gibt es keine Green Software?

Keiner schreibt heute mehr richtige Anwendungen(keine Microcontroller Prog.) in Assembler!
Auch wenn es theoretisch möglich wäre, so wäre der Aufwand und die Fehlermenge viel zu groß. Das kostet eben zu viel Zeit. Deswegen werden Compiler aber auch immer mehr optimiert.

Und wir wissen längst alle, dass man nur etwas tut, wofür man auch Geld erwartet/bekommt.
Die Zeit würde aber viel zu viel kosten.


Es gibt Spiele, da dreht meine Grafikkarte hoch, obwohl es nur das Menü ist, damit hast du recht. Aber rechenintensive Grafiken benötigen eben die meiste Power und ein schwarz/weiß Menü will heute keiner mehr.

@bmbl: Eine Bachelorarbeit wird das wohl um weiten übersteigen...Damit könnten sich mehrere Dissertationen beschäftigen.
 
@Onkelhitman:
Jaja, die guten alten 3D-Beschleuniger-Karten... Was denkst du, wie hoch der Stromverbrauch von den Dingern war? Ich hab keine Eckdaten und finde mein altes Hexenbrett auch grad nicht aber: eine Voodoo 1 war nicht nur passiv gekühlt, sie hatte noch nicht einmal Kühlrippen. http://img.tomshardware.com/us/1997/11/09/3d_accelerator_card_reviews/monster3d.jpg
Jetzt rate mal, wie viel Leistung du durch Chips schicken kannst, die keinerlei Kühlung haben. Sämtliche Leistung, die ein Chip für Rechenoperationen aufnimmt gibt er in Form von Wärme ab, ein Hoch auf den Energieerhaltungssatz.

Oder anders: Schau mal nach, wie hoch eine moderne Grafikkarte im Desktopmodus taktet. Wenn ich mich richtig erinner läuft meine GTX560Ti unter Windows mit niedrigem zweistelligem Kerntakt. Da kannst du den Energieverbrauch unter Ulk verbuchen.

Du willst Energie sparen? Du willst wirklich Energie sparen? Dann verkauf dein Smartphone und nimm lieber ein klassisches Mobiltelefon so von Anfang 2000. Da hatte man problemlos ne Standby-Dauer von 2 Wochen, mit ein paar Gesprächen immer noch ne gute Woche. Nicht wie bei Smartphones: 3x rumgeklickt und schon muss das Ding ans Ladegerät.
Du willst noch mehr Energie sparen? Schalt bei deinem Router WLAN ab. Energie in Form von Radiowellen ins Zimmer zu blasen, obwohl man einfach ein schönes Cat6 verlegen könnte ist pure Verschwendung. Am Besten schaltest du deinen Router nur an, wenn du auch wirklcih ins Netz willst. Sowohl Router als auch das integrierte Modem süffeln schön konstant an deiner Steckdose. Oh, und trenn dich von deiner NAS.
 
Die hatten noch nichtmals nen Stromanschluss. Waren PCI.

Du willst doch jetzt nicht wirklich die Beschleunigungsleistung vergleichen oder? Darum gings gar nicht, sondern darum, dass die Lösung einen Chip für 2D zu haben mit wenig Verbrauch (oder eben im Prozessor) und dann ein Umschalten auf eine 3D Karte für rechenintensive Anwendungen mit Sicherheit mehr einspart, als jedes Programm umzuändern.

Mal davon ab, dass damals zu Kyro Zeiten, oder der Creative GeForce256 auf gerade einmal ein 5cm Lüfter benutzt wurde. Die Voodoos sind ja noch älter. Da gings ja mit 3D gerade erstmal los mit Duke Nukem 3D und so nem Kram, worüber wir heute nur lachen.

Den letzten Part zieh ich mir als Schuh nicht an, ich habe kein Smartphone und den Krempel ;)
 
Onkelhitman schrieb:
Die hatten noch nichtmals nen Stromanschluss. Waren PCI.
Die 2D-Karte, die ich dazu in Betrieb hatte, war glaub ich sogar noch ISA...

Du willst doch jetzt nicht wirklich die Beschleunigungsleistung vergleichen oder? Darum gings gar nicht, sondern darum, dass die Lösung einen Chip für 2D zu haben mit wenig Verbrauch (oder eben im Prozessor) und dann ein Umschalten auf eine 3D Karte für rechenintensive Anwendungen mit Sicherheit mehr einspart, als jedes Programm umzuändern.
Es geht nicht um die Beschleunigerleistung sondern um die aufgenommene elektrische Leistung, die dann eben als Rechenleistung zur Verfügung steht und als Abwärme abgeführt werden muss.
Du kannst einen Athlon B 1GHz mit einem Bulldozer vergleichen (beide sind Heizplatten und beide bildeten zu ihrer Zeit die Speerspitze bei AMD), aber niemals eine passive, rippenlose Voodoo mit einer modernen Dual- oder Tripleslot - Karte. Damals waren Grafikkarten einfach etwas, das beim Stromverbrauch unter den Tisch gefallen ist. Heute sind sie die Hauptabnehmer.

Da gings ja mit 3D gerade erstmal los mit Duke Nukem 3D und so nem Kram, worüber wir heute nur lachen.
Duke 3D war kein 3D. Die Level-Geometrie war zwar 3D (und anders als Wolfenstein auch mit mehreren Ebenen versehen), die Gegner, Waffen und Umgebungsobjekte waren aber trotzdem nur Sprites.
Eine der ersten vollwertigen 3D-Engines (noch dazu mit Support für 3DFX via OpenGL) war die Quake 1 - Engine. GLQuake sollte man einfach mal erlebt haben: volumetrische Echtzeitschatten, Echtzeitreflektionen, Transparenzen,... und alles auf ner kleinen Voodoo 1.

Aber wie gesagt, du kannst eine alte PCI-Beschleunigerkarte nicht mit einer modernen Karte mit 1-2 zusätzlichen Stromanschlüssen vergleichen. Eben um diesen Stromhunger der neuen Karten einzudämmen gibt es ja die automatische Taktänderung und Abschaltung von nicht benötigten Kernen. Dafür muss die Anwendungssoftware auch nicht angepasst werden, das macht der Treiber allein. Schalt einen Frame Limiter (z.B. VSync) ein, schon wirst du merken, wie dein Grafikkartenlüfter runter tourt, ein deutliches Indiz für niedrigere Stromaufnahme.
Ich zocke nur noch mit Frame Limiter. Was soll ich ein älteres Game mit 120FPS spielen, nur weil ich es evtl könnte? Da drossel ich lieber auf 60FPS und freu mich, weil mein Grafikchip nur handwarm wird. Das ist Green IT.
 
Zurück
Oben