Diskrete Grafikkarte [im BIOS] abschalten?

nukular8400

Lt. Commander
Registriert
Apr. 2008
Beiträge
1.105
Hi!

Ich bin gerade in der Frühplanungsphase ;) eines neuen Rechners und mache mir gerade Gedanken über die Grafikkarte und die mögliche Abschaltung einer diskreten Grafikkarte, wenn sie nicht gebraucht wird.

NVIDIAs Hybrid-SLI und AMDs HybridCrossfire sind nun längst begraben und der Nachfolger Optimus ist auf absehbare Zeit ein Notebook-Only. Bis AMD etwas neues in der Art bringt, vergeht wahrscheinlich noch eine Menge Zeit.

Aber ich frage mich, ob es dann möglich ist, mit zB einem Clarkdale-Prozessor (integrierte IGP) und einer diskreten Grafikkarte eine rudimentärere Variante der Hybrid-Konzepte zu gestalten. Mein einfachster Gedanke dazu ist folgender Aufbau:

1xDVI an IGP (Mainboard)
1xHDMI an diskrete Grafikkarte
(beide Anschlüsse an gleichen Bildschirm)

Dann im BIOS je nachdem, welche Karte man braucht die IGP aktivieren (geht das bei Clarkdale eigentlich noch?) und den PCIe-Slot deaktivieren. Oder umgekehrt.

Dazu müssten erstmal zwei Sachen geklärt werden:

1.
Ist es sinnvoll, das so zu machen? Bekommt die diskrete Karte keinen Strom mehr, wenn der Slot deaktiviert wird? Wenn ja: Ginge das dann nur mit Karten, die keinen zusätzlichen Stromstecker vom Netzteil benötigen?

2. Kann man unter Windows zwei Grafiktreiber konfliktfrei laufen lassen, da ja je nach genutzter Grafikeinheit ein anderer gebraucht werden würde?

Ich würde mich sehr über eine konstruktive Diskussion darüber freuen. Falls jemand die Möglichkeiten hat, könnte derjenige das sogar mal testen? Meinetwegen auch mit AMD IGP und diskreter AMD-Grafikkarte. (Könnte unproblematischer sein, da der gleiche Treiber benutzt wird)

Gruß
nukular
:)
 
Strom wird nicht zu oder weg geschalten, der wird vom Netzteil zur verfügung gestellt und ist dann immer da.
eine Grafikkarte die nicht erkannt wird, braucht also dennoch Strom.

sofern man keine Highend karte nimmt, liegt man bei 10-20 watt, das stört doch nicht...
 
Danke für die Antwort!

Ich hatte vor vielen Jahren in irgendeiner Zeitschrift (Computer BILD Style) den Tipp gelesen, man könne unbenutzte Slots abschalten, um Strom zu sparen (im Nachhinein eine etwas verwirrende Vorstellung, da es ohnehin keinen Strom geben sollte, wenn keine Karte drinsteckt). Genau nach der Anleitung hatte ich das dann gemacht (Damals noch Sockel A) und naja, es gab zumindest keinen Nachteil. Darauf aufbauend hatte ich jetzt diesen Gedanken. Aber tatsächlich hat mein derzeitiges Board diese Möglichkeit nicht mehr. Dann muss ich diesen Gedanken wohl leider wieder begraben...

PS: 10-20 Watt wären mir das Ganze schon wert gewesen ;)
 
Ich habe witzigerweise ebengrad das mit dem Umschalten der Grafikeinheit ausprobiert^^. Also wenn du Strom sparen willst wurde ich aufjdenfall die Grafikkarte rausstecken. Ich hab mit der Onboard 50W und mit der 1950xt mindestens 85W im Idle, deswegen lohnt sich das schon, zumindest bei mir^^. Sehe grad du hast die 4550 da lohnt sich das wahrscheinlich nicht.
 
Begraben musst du die Idee nicht. Was florian. da schrieb trifft nicht ganz so zu.

Beispiel:
Mein Lenovo Thinkpad T400 hat 2 Grafikkarten verbaut! Eine Intel und eine ATI 3470.. (Klingt komisch, aber stimmt.. googlet ruhig..)
Den Typ der Intel weiss ich nicht auswendig.
Die Intel ist ziemlich stromsparend... da habe ich c.a. 15Watt in Linux und normaler office-betrieb. (Angabe nach Powertop). Die ATI benötigt da einiges mehr..

Unter Windows 7 und ab Linux Kernel 2.6.34 sind switchable graphics möglich.. Getestet habe ich es nicht. Ich ändere es immer über Bios, aber es ist möglich! Genau aus dem Grund um Strom zu sparen, was im Laptop schon extrem von Vorteil ist.. (Mit Linux und Intel Grafikkarte kitzle ich so bis 6h Akku-Laufzeit im Office-Betrieb aus meinem T400) Mit der ATI unter Windows wärens ungefähr die hälfte!
Dein Bios im Desktop Mainboard wird ein Umschalten im Betrieb vermutlich nicht unterstützen, aber umschalten im Bios kannst du.. Habe ich früher auch schon mit onboard und pci-Grafikkarte gemacht..
Allerdings ist sie immernoch am Strom, und bezieht daher Strom. Aber der Chip hat nichts zu rechnen und die Ram bleiben leer, darum wird das System vermutlich schon ein bisschen weniger Strom brauchen..

Hoffe das half dir ein bisschen..
 
d3n!z schrieb:
IAlso wenn du Strom sparen willst wurde ich aufjdenfall die Grafikkarte rausstecken. Ich hab mit der Onboard 50W und mit der 1950xt mindestens 85W im Idle,

hmm, das würde ich nicht machen.
zur Verbrauchsanalyse hab ich das selbe vor ca. 3 Wochen gemacht.
Verbrauch X1950xt + HD4350
Verbrauch x1950xT
Verbrauch HD4350

wieder umgebaut in den Uhrzustand:
--> Nach dem Windows Ladebalken Schwarzes Bildsignal
--> Lange rumprobiert, Windows wollte nicht mehr Starten
--> glücklicher weiße hatte ich nen Backup
--> Format C --> Backup drauf.

Windows XP mag es also nicht so gerne wenn man Grafikkarten hin und her Steckt ;)
 
o0

Also unter Windows 7 fuktioniert das bisher sehr gut bei mir. Aber vieleicht sollte man das doch lieber lassen wenn man wichtige daten drauf hat^^.

Du hast die Verbauchsanalyse gemacht? Kannst du dann pls mal deine Werte schreiben? Mich würde mal interessieren was deine 1950xt am Gesamtverbauch leistet (idle).
 
so ziehmlich genau 30 Watt.
interesanter weiße braucht sie im Multi Monitor Betrieb ebenfalls 30 Watt womit sie besser abschneidet als fast alle HD5000er Karten.


Ich stell mir das Umstellen jedes mal recht umständlich vor.
wenn man so extrem strom sparen will, wäre nen Laptop mit ext. Maus/Tastatur/Bildschirm besser geeignet.
 
Ich danke für die Beiträge!

Das klingt ziemlich spannend und verleitet sehr dazu, es zu versuchen.

@Boeby:
Habe ich deinen Hinweis richtig verstanden, dass ich versuchen soll, im BIOS die onboard-Grafik zu aktivieren und die diskrete Grafikeinheit quasi ungenutzt zu lassen, jedoch aktiv?
Ich halte das für durchaus wert, es zu probieren. Ich müsste dann mal ein bisschen nachforschen, wie sich die Intel IGP bei den Clarkdales verhält. Aus Sparsamkeitsgründen wäre das zur Zeit natürlich die erste Wahl für den Desktop.

@d3n!z
Rausstecken wäre natürlich die ultimate Möglichkeit, den Verbrauch zu minimieren :D Aber gerade das wollte ich nicht. andauernd machen.

Ich habe jetzt die HD 4550 und wollte aufrüsten, was sehr viele Probleme bereitet hatte. Noch ist mein System nicht so alt und ich habe gute Aussichten, es noch für echtes Geld weiter verkaufen zu können. Deshalb plane ich ein komplett neues System, welches dann über die Fähigkeiten einer 4550 hinauswachsen soll :D Natürlich hast du recht, dass sich bei der Karte keine Sparaktionen lohnen. Sie verbraucht unter Volllast etwa 17 Watt. Das ziehen die 5750-Karten meist schon im idle.

@florian.
Das mit dem Laptop habe ich auch schon gemacht, jedoch hat das meine Anforderungen an zügiges Arbeiten nicht erfüllt. So ziemlich alles an einem Laptop ist langsamer, allem voran die Platte. Das nervt. Zusätzlich dreht der Lüfter bei einiger Belastung (Simulationen, Kompilieren, Erstellen) ziemlich auf, was auch noch nervt. Zur Zeit arbeite ich 10x lieber an einem Desktop. Ich hoffe jedoch, dass sich die Möglichkeiten irgendwann entwickeln und man nur noch einen Laptop braucht. Dann vielleicht mit zuschaltbarer Grafikbox und alle meine Wünsche sind erfüllt ;)
 
Du solltest Dich halt entscheiden: Willst Du Grafikpower, musst Du mit höherem Stromverbrauch leben. Willst Du Strom sparen, musst Du mit weniger Rechenleistung leben. Beides geht nunmal nicht.

Ansonsten gilt das übliche: Wer seinen Rechner nicht 24/7 laufen lässt, braucht sich auch über die paar € mehr im Jahr die eine leistungsstärkere Grafikkarte ausmacht nicht groß aufregen.
 
@nukular8400

Was ich damit sagen wollte ist, dass das Betriebsystem eigentlich kein Problem darstellen sollte..

Wie sich dein Bios verhält, kann ich nicht sagen.. Aber wenn eine Onboard-Grafikkarte vorhanden ist, sollte diese doch deaktiviert werden können.. Aktiviert = Benutzen der Onboard, Deaktiviert = Benutzen der ATI.. So in etwa..
Wie und ob sich das auf den Verbrauch bemerkbar macht, weiss ich nicht.. Wird aber vermutlich wenn überhaupt nicht soviel sein..

Wenn dir der Stromverbrauch so wichtig ist, dann bedenke folgendes:
Wenn dein Rechner läuft, und hinter dir im Raum z.b. eine Lampe dann kann es sein, dass die Lampe mindestens genausoviel verbraucht wie dein Rechner.. Z.b. mein Spot-light.. Glaube 3* 60 Watt Birnen drin.. Verbraucht also auch 180 Watt.. Daran denken die meisten Personen gar nicht.. Also nicht auf jedes Watt schauen, wenn mans woanders sowiso wieder "vergeuded"..
(Ich hoffe das ist verständlich.. Ist schon spät..)

Ich sehs so wie Falcon:
Wenn du Power möchtest, dann musst du mit höherem Stromverbrauch rechnen... Ist annähernd so mit dem Spritverbrauch eines Fahrzeugs..

Ansonsten kauf dir ein Laptop.. Mein primäres Arbeitsgerät ist auch ein Laptop (, in einer Dockingstation..) Dazu ein KVM Switch und gut ist..
Der Laptop hinkt in Sachen Performance nur Platte und Grafik hinter her.. Aber Platte gibts eine SSD und Grafik-power brauch ich nicht wirklich..
(Habe den Laptop aber nicht zum Stromsparen, sondern fürs Studium..)
 
Mir ist natürlich klar, dass alles Strom zieht, was man in eine Steckdose steckt (vorausgesetzt, man schaltet es an). Es ist hier allerdings so, dass nichts so viel verbraucht wie mein Rechner. Es kommt sogar nur wenig an den Bildschirm ran. Abgesehen vom Herd und Backofen.

Ich besitze sogar einen Laptop - aber wie gesagt, die Arbeit daran ist mir zu unkomfortabel. Ich nehme ihn auch nur mit, wenn ich ihn fürs Studium brauche. Zu Hause synchronisiere ich dann gleich mit dem Hauptrechner und kann wieder normal mit den Daten weiterarbeiten.

Aber das Sparen von elektrischer Energie um mich am Ende über 20-30€ pro Jahr zu freuen ist nicht der Hauptgrund für meine Überlegung. Ich möchte eher ein bisschen rumprobieren und herausfinden, was alles machbar ist. Dabei kommen immer wieder schöne Ideen für Projektarbeiten und vielleicht sogar mal für eine Studienarbeit rum (ich studiere Elektrotechnik)
 
Das thema hattenw ir vor ein paar tagen erst...

Welche Energieeffizienz hat eigentlich dein Kühlschrank, der Gefrierschrank, Spülmaxchine, Waschmaschine, Trockner, Tv .... ?!
 
Das habe ich leider nicht mitbekommen.

Aber wenn du es wissen willst:
1. und 2. in einem und zwar A++, 268l
3. habe ich nicht
4. dafür gehe ich in den Waschsalon, habe ich also nicht
5. habe ich nicht
6. habe ich nicht ;)

Beleuchtung verbraucht nicht viel, auf jeden Fall weniger als mein Rechner und Monitor, selbst wenn die ganze Wohnung beleuchtet ist.

Aber wie ebenfalls bereits gesagt:

Es geht mir trotzdem darum, es einfach aus Forscherdrang zu probieren. Mir ist schon klar, dass es sparsamer wäre, den Rechner ausgeschaltet zu lassen, statt über eine Methode zum Sparen im Internet zu recherchieren.
 
Das was du vor hast geht im Moment nur bei Notebooks mit einer ATI IGP und einer zusätzlichen dedizierten Grafik...da kann man umschalten.

DIe Lösungend ie auch mit andern IGP laufen sind nicht von ATI....

Nvidia bastelt an einer lösung für notebooks die bald zum einsatz kommen soll (wenn deren Grafikchips noch einer in notebooksverbaut) und ati will seine lösung optimieren.

für den desktop gibt es keine solche lösung.

Von Nvidia hab es unter dem deckmantel von Hybrid SLI mal so etwas... hat aber nie wirklich funktioniert und die neuen treiber unterstützen das schon eine ewigkeit nicht mehr.

Ging auch nur mit Nvidia IGP und dedizierter Karte.

zwischen der IGP der CPU und der dedizierten hin und her zu schalten wirst du nie schaffen, wenn du dir nicht gerade ein neues bios für dein Motherboard schreiben kannst.

Du kannst versuchen die Spannungen von Prozessor und Grafikkarte zu senken bis du den letzen stabilen Wert erreicht hast und gehst dann wieder leicht höher, das spart auch Strom.

Dazu vielleicht noch ein PICO-ATX netzteil...
 
Zurück
Oben