Nvidia GTX-280 2D-Idle-Mode mit 2 Monitoren

S

Stuntmp02

Gast
Hallo zusammen,
ich habe nun meinen alten 19"-Monitor vom Dachboden geholt und wollte ihn als zweiten Monitor nutzen, leider taktet sich nun die GTX-280 nicht mehr in den Idle-Mode. Das Resultat ist einfach: Anstatt wie bisher 185 Watt verbraucht mein gesamtes System 225 Watt, sprich 40 Watt mehr. Schalte ich jetzt noch den zweiten Monitor ein, verbraucht das System 260 Watt anstatt wie bisher 185 Watt. (35 Watt Monitor | 40 Watt Mehrverbrauch GTX-280)

Gibt es mittlerweilen eine Möglichkeit, den 2D-Idle-Mode auch mit zwei Monitoren zu benutzen? Es kann doch nicht wahr sein, dass diese Grafikkarte, die seit über einem Jahr released ist, immernoch kein Fix für diesen Bug bekommen hat :freak:
Und da meckern die Leute immer über den ATI-Treibersupport :o
75 Watt nur für den zweiten Monitor ist mir ehrlich gesagt zu viel, ich wollte ihn sowieso grundsätzlich nur anschalten, wenn ich z.B. Divinity 2 spiele und im Hintergrund einen Questratgeber oder eine Karte offen habe. Aber dass die GTX-280 trotz sogar AUSGESCHALTETEM zweiten Monitor hochtaktet, kann doch wohl nicht wahr sein 0o
 
Das Problem besteht afaik bei den GeForce-Treibern generell. Du könntest ja die Karte grundsätzlich mit weniger Takt und Spannung betreiben und dann applikationsspezifisch übertakten/Spannung erhöhen. Als Radeon-Besitzer weiß ich gerade nicht, welches Tool das bei einer GeForce leisten kann.
 
Mich mich ja so ärgert ist, dass selbst bei ausgeschaltetem zweiten Monitor der volle "Extra-Mode" genutzt wird. Sobalt nur das DVI-Kabel angeschlossen ist, ist ein 2D-Modus nicht mehr möglich. Das kann doch nicht wahr sein? Es geht hier ja nicht "nur" um Taktraten und Spannungen, sondern darum, dass eine GTX-280 im Idle (2D)-Modus auch noch Teile der GPU deaktiviert und dadurch der Stromverbrauch stark gesenkt wird. Meine GTX-280 läuft im Idle gar mit nur 200/400/100@0,8v (Default: 300/600/100@1,0375v) und verbraucht nochmals 20 Watt (!) weniger als eine normale GTX-280 im Idle. Der 2D-Stromverbrauch der Grafikkarte ist nahezu bei null - Sobalt nur das DVI-Kabel angeschlossen wird, schießt der Stromverbrauch um 40 Watt nach oben.

Oh man, dass kann doch nicht wahr sein :freak: Nach Release wäre das ja noch zumindest vertretbar, aber 12 Monate danach muss es doch ein Fix geben :grr:

Hat keiner mehr ne Möglichkeit, durch eine "Einstellung" im Treiber oder ein Hotfix dieses Problem zu beheben?
 
wenn du deine Karte im 3D Modus mit nur 1,0V befeuerst, spart das auch ne Menge. Na ja... lieber ertrage ich diesen NV Bug als die Stromschleuder ATI Karten, die keinen Sparmodus kennen und manchmal sogar einfach abstürzen wenn man manuell den Speicher verlangsamt zudem noch die miesen Treiber, die jedes Spielvergnügen versauen wenn sie mal wieder nicht möchten.
 
Fix: Nur einen Monitor betreiben.
Ich schalte den 2. Moni die meiste Zeit einfach ab. Nur wenn er wirklich gebraucht wird erweitere ich den Desktop. Ist zwar blöde Arbeit aber wenn man seinen Desktop nicht mit Icons vollgeballert hat erträglich.
 
Wenn ich z.B. Divinity 2 spiele ist es sehr angenehm eine Karte mit Questpositionen auf einem anderen Monitor anzeigen zu lassen. Auch MMOs sind äußerst praktisch, wenn ich auf einem zweiten Monitor die Questbeschreibungen habe. Zusätzlich kann ich Protokollierungen (CPU-Auslastung, RAM-Auslastung, Temperaturen) durchführen. Und der zweite Monitor ist schon vorhanden, genauso wie eine fähige Grafikkarte und die nötigen Kabel. Es kostet bis auf den Stromverbrauch nichts. Meine Karte läuft unter Last sowieso mit nur 1,0375v anstatt der üblichen 1,18v
Trotzdem ist es nicht nötig, dass im Idle Betrieb die Karte mit 650/1350/1200@1,0375v fährt, das kostet 40 Watt mehr Strom als der normale Idle Mode, der VOLLKOMMEN ausreichend für den Idle ist.

Naja, 75 Watt mehr Stromverbrauch ist Indiskutabel. Dann lasse ich es bleiben. Ich dachte es gibt vielleicht eine Einfache Lösung, ein Fix, oder ähnliches.
 
Zum einen darf man nicht vergessen, die Grafikkarte muss den zweiten Monitor ansteuern. Da beide Monitore unterschiedliche Auflösungen fahren müssen die auch seperat bedient werden. Das kostet sicher Leistung. Die Frage stellt sich eigentlich gar nicht. Ob nun die Leistung so richtig ist oder nicht lasse ich mal im Raum stehen. Da können wir bestimmt noch Monate drüber reden und ehrlich gesagt möchte ich das nicht. Der Monitor wird ja nicht geclonet sondern neu angezeigt. Beim Clonen wird das Signal einfach durchgeschliffen aber das ist bei deinem Vorhaben ja nicht der Fall. Es wird ein seperates Bild berechnet und das kostet nurnmal Leistung. Die Vorteile die du dadurch hast sind aber nicht von der Hand zu weisen.

Ich lasse mir auf dem zweiten die Toolbar anzeigen mit diversen Sysinfos. Ein TV Bild beim zocken über die TV karte oder packe alles drauf was nicht wirklich auf den Hauptmonitor gehört oder ich sehen möchte wenn ich Zocke. Sicher so eine Karte wie du auch nur halt bei Sacred 2 und das hilft wirklich. Oder manchmal das TS weil ich die Sounds dafür abeschaltet habe und sehen kann wer kommt rein oder geht raus. dieses ewige Member Joint usw nervt nämlich richtig.

Also musst du entscheiden was du tust. Ich habe die Vorteile von 2 Monitoren zu schätzen gelernt.
 
as far as i know, liegt das sowohl bei nvidia als auch bei ATI an der biosprogrammierung der grafikkarte. ich hab das mal genauer beschrieben gesehen, wo es anhand der profile erklärt wurde.

heutige grafikkarten haben theoretisch 4 Profile in ihrem Bios:

1. 2d (mit verringerten Taktraten)
2. 3d (mit den hohen Taktraten)
3. 2d mit 2 monitoren (mit den hohen Takraten)
4. 3d mit 2 monitoren (mit den hohen taktraten)

also die verringerten takraten gibts bei so gut wie jeder grafikkarte nur im singlemonitorbetrieb, warum diese nicht im multimonitorbetrieb genutzt werden, kann ich die nicht sagen

theoretisch kann man das durch ein neuprgrammieren des Bios ändern, allerdings geht bei sowas, wie wir ja alle wissen, natürlich die garantie verloren

mich ärgert sowas auch, da ich genai das gleiche problem habe wie du, ich möchte auch gern meinen 2. monitor benutzen, allerdings taktet dann auch meine grafiikkarte nicht mehr runter.
 
Zuletzt bearbeitet:
Zurück
Oben