PC an 2 TFTs + TV

NeRonZ

Ensign
Registriert
Feb. 2010
Beiträge
227
Wie in der Überschrift schon angedeutet geht es um folgende Problematik:

Ich habe derzeit zwei HP ZR24w per DVI am laufen.
Nun soll ein Philips 40" dazu kommen (am besten per HDMI).
Leider hat meine Grafikkarte keine HDMI-Schnittstelle. Also müsste ich mir wohl oder übel eine stromsparende 2.Grafikkarte mit HDMI kaufen.

Folgende Hardware ist verbaut:
CPU: C2Q9550 E0 @4,25GHz
MoBo: Gigabyte GA-EP45-UD3P
RAM: 8GB G.Skill @1000MHz
Graka: 9800 GT 512MB
NT: BQ 650W
OS: WinXP 32Bit + Win7 64Bit / Ubuntu 10.10
Welche low profile, silent (eventuell auch passiv) 2.Grafikkarte könnt ihr mir empfehlen?
Budget liegt bei ~30€
 
Zuletzt bearbeitet:
Dann würde ich doch blos einen TFT gegen den TV tauschen, aber damit wäre mir doch nicht geholfen. Schließlich sollte der TV ja zusätzlich dazu kommen. Ständiges Umstecken wollte ich mir eig ersparen, wenn es doch unkomplizierter geht=)
 
Sollen der TV und die Monitore gleichzeitig laufen? Falls ja, wird das mit der nVidia nix und da muss eine weitere Karte her. Falls nicht, dann nur den Adapter besorgen.
 
Leute ich habe doch geschrieben, dass der TV dazu kommt, dh. er soll zusätzlich zu den beiden TFTs laufen, daher bin ich ja auf der Suche nach einer 2.Grafikkarte;-)
 
Bei deinem Setup wuerde Ich schon ueberlegen, ob du dir nicht ne Eyefinity-Karte holst und einfach deine 9800 GT austauscht. Da gibt es auch passive Optionen, die zwar alles keine Highend Leistung bringen, aber deine TFTs und deinen Fernsehere parallel ansteuern koennnen.
 
@fizzR:
Dachte bei Eyefinity müssen die Monitore alle gleich groß sein und die selbe Auflösung haben, damit die GPU denkt es wäre ein Motnir und nicht drei.

@muahdib:
Sry da OS habe ich nicht erwähnt=)
Habe es aber jetzt oben ergänzt. Benutze hauptsächlich Win7 64Bit.
Die beiden TFT ergänzen sich bzw wurden erweitert, damit ich auf beiden Bildschirmen gleichzeitig arbeiten kann.

@daniel d:
So in etwa habe ich mir das vorgestellt. Hast du zufäälig schon iwelche Erfahrungen mit der Karte gemacht?
Grafikkarte einfach auf die PCIe-Schnittstelle, CCC installieren und losgehts?
 
Leider nicht. Ansonsten könntest Du auch eine von nVidia nehmen, aber in den Preisbereich käme nur die G 210 oder GT220 in Frage. Ich habe kurz gesucht, aber wie es aussieht bist Du mit einer Radeon besser dran. Vielleicht können noch anderen bezüglich der Treiber helfen.
 
@daniel d: habe mir den Testbericht von ht4u.net bezüglich der Ati 6450 mal angeschaut.
Schaut gut aus, leider wurde in dem Test nur eine mit DDR5 getestet. Die Ati 5450 kommt daher von dem Verbrauch und Temperatur besser bei weg. Allerdings kann das auch an dem verbauten DDR3-RAM liegen. Hauptsächlich wird der TV ja eh nur zum Fernseh schauen und für BluRay-Filme genutzt
 
Prinzipiell kann man bei WIn7 wie auch bei XP Grafikkarten mischen.
um Treiberproblemen aus dem weg zu gehen würde ich allerdings dennoch den gleichen Hersteller wählen.

demnach eine kleine Nvidia G 210


wenn es dir auf den verbrauch ankommt, dann solltest du an die "Große" Grafikkarte lediglich einen Monitor anschließen.
 
Schaltet sich die 2.Grafikkarte denn dann noch automatisch in den 2D-Modus, falls die Hardware nicht genutzt wird?
Denn aktuell habe ich über Rivatuner meine 9800GT bei Officeanwendungen im 2D-Modus laufen. Nur zum gelegentlichen Zocken springt sie dann auf die Maxwerte
 
das machen alle aktuellen Grafikkarten automatisch.

eine G210 verbraucht irgendwas zwischen 5 und 15Watt.
Da ist es relativ egal in welchem Modus sie ist.
 
Naja hatte blos bei dem Review zur Ati 6450 gelesen, dass es Probleme gibt spbald man mehr als einen Monitor anschließt. Er taktet dann im Idle-Modus nicht mehr richtig runter und somit wäre der verbrauch höher.
Allerdings ist der Unterschieder wirklich nicht groß, wohl ~5Watt.
 
das hast du bei jeder Grafikkarte.

eine HD5450 verbraucht dann eben statt ~8 Watt ~11Watt.
eine HD6970 verbraucht dann eben statt ~20 Watt ~60 Watt.
bei Nvidia ist es das selbe.


bei den Alten Karten (X1950XT bzw. 7900GT) gab es noch keine solchen Stromspar Mechanismen.
die haben eben immer 30-40 Watt verbraucht...
 
Mh schon klar. Alte Grafikkarten hatten dieses Feature noch nicht, musste man dann eben immer manuell softwareseitig anpassen bzw ändern.
Gut, dann wurde mir ja weiter geholfen. Werde dann aus treibertechnischen Gründen auch bei nvidia bleiben, damit das einheitlich bleibt und ich nicht extra mit dem CCC rumtesten brauche.

Viele Dank an die immer hilfsbereite CB-Community=)
Hier kann dann geclosed werden.
 
Zurück
Oben