Green Software

Ich versteh deine Argumentation immer noch nicht.

Es gibt doch Onboard Chips von AMD und Intel, die im Prozessor eingebaut sind. Klar sind die nicht so Leistungsstark wie eben 3D Beschleunigerkarten (was ja auch die modernen Grafikkarten sind). Das sollen sie doch auch gar nicht. Aber wenn der Prozessorinterne Grafikkern für 2D herhalten würde, und die zusätzlich eingesteckte Grafikkarte komplett ausschalten würde, würdest du doch noch mehr Strom sparen oder nicht?

Z.B. im Windows Betrieb fährt deine Grafikkarte den Lüfter runter. Aber schaltet ihn nicht ab. Auf dem Prozessor die Grafikeinheit verbraucht aber wohl nur Bruchteile dessen, was der Ram schon frisst, auch wenn viele Chips abgeschaltet werden (ist das beim Ram auf der Grafikkarte tatsächlich so?)

Es geht mir also nicht um die Rechenleistung einer Voodoo Karte, sondern es geht mir um das Prinzip: 2D und 3D Karte trennen um Energie zu sparen.
 
Klar, wenn du von APUs ausgehst kannst du noch weiter einsparen... aber auch das ist nur eine Treibersache. Dazu gibt es schon ewig Experimente, es hat nur nie wirklich sauber funktioniert. Ich hätte z.B. gern NVidia Hybrid SLI mit meinem alten NForce3-Board und meiner damals verwendeten 9800GT benutzt. Laut Liste hätte es gehen sollen, effektiv hats nie funktioniert. Wenn es geklappt hätte, dann hätte im 2D-Betrieb die Onboard-GPU alles erledigt und erst unter Last wäre die 9800GT hochgefahren.

Was du hier mal eben vergisst ist die Übertragung der Signale. Du musst davon ausgehen, dass du irgend einen Grafikchip in der CPU hast (also Intel oder AMD) und irgend einen Grafikchip auf der Karte (NVidia, AMD oder einen der seltenen Matrox oder sowas). Früher war es vielleicht akzeptabel, ein Durchschleif-Kabel zu verwenden, heute würden solche Leitungsverluste auf keine Kuhhaut mehr gehen. Du schließt deinen Monitor entweder ans Board oder die GraKa an. Entweder muss jetzt die Grafikkarte unter Last ihre Daten über PCIx zum Board schleifen oder die GraKa muss auch ohne Last zumindest genug Saft erhalten, damit die Onboard-Lösung (nix anderes ist ne APU am Ende) ihre Daten durch die GraKa schleifen kann. Das eine ist offensichtlich mit Stromverbrauch verbunden, das andere bedeutet Rechenaufwand = Leistungsverluste. Jeden Takt, den die APU mehr in Grafik-Arbeit stecken muss sie in Abwärme abführen. Das sorgt dafür, dass die x86-Kerne nicht dynamisch hoch takten können, du verlierst Rechenpower.
Die beste Lösung lautet: Teile und herrsche. Indem du viele verschiedene Chips nutzt, kannst du viele Chips mit auf die Lastverteilung angepassten Kühlern versehen.

Und auch wenn eine dedizierte Grafikkarte (ohne Onboard-Lösung) nie komplett abschaltet, hier mal ein paar aktuelle Werte meiner Gainward GTX560Ti (laut GPU-Z):
- Kerntakt: 50,6MHz
- Speichertakt: 67,5MHz
- Shadertakt: 101MHz
- Fan Speed: 30%, ~ 1200RPM. Ist, ohne über zusätzliche Tools nachzuregeln, das Minimum bei der Karte... und unhörbar
Das sind Werte, bei denen du den Stromverbrauch aufgrund der niedrigen Taktung unter Ulk verbuchen kannst. Eher saugt dich da deine Laser-Maus leer... oder dein 520W Surround System.
 
Es macht doch bei einer aktuellen Grafikkarte von AMD/Nvidia kaum noch was an Mehrverbrauch aus.

Idle & IGP von Intel 47W.
Idle & GF 660/AMd 7750 54W

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-650-test.1889/seite-10

Für das gebotene Mehr an abrufbarer Leistung ist deren Idle Verbrauch wohl ein Traum, wie ich finde.

Da machen eher die 5 alten 320GB oder 500GB HDDs mit ihren >10W den Braten fett. Kein Plan wie viel die wirklich brauchen, aber so heiß wie die werden, dürften das mehr als 10W sein. Ersetzt man die durch irgendeine Green Platte, hat man deutlich mehr gespart. Und ne aktuelle Grenn Platte dürfte sogar deutlich schneller als die alten Dinger sein.
 
Immer noch besser als viele älteren Spiele. Oder auch neue wie FTL zB. Also technisch überhaupt nicht überlegen, aber Stromhunger ohne Ende.

Bei neuen Spielen gibt es also schon eine Art Drosselung.
 
Zurück
Oben