Leistungsaufnahme Sapphire bzw. MSI HD2600XT

joergweber

Newbie
Registriert
Dez. 2007
Beiträge
7
Hey Leute,

gibt es Unterschiede in der Leistungsaufnahme zwischen den beiden HD2600XT von Sapphire und MSI? Kann es sein, dass die Hersteller unterschiedlich effiziente Karten bauen obwohl das Referenzdesign von ATi vorgegeben wird? Oder ist die Leistungsaufnahme identisch?

Danke im Voraus

Joerg

edit/ bin aus Versehen bei der Kaufberatung gelandet, sorry, vielleicht kann einer den Thread gerade in das allgemeine Grafikkarten-Forum verschieben :)
 
Zuletzt bearbeitet:
Kommt drauf an, es gibt ja aktive und passive Karten. Aber gleiche Ausstattung und Takt bedeutet auch, dass der Verbrauch ähnlich ist.
 
Macht im Idle eig. garkeinen Unterschied.. Ich hab innem Office PC ne GF 4200 Ti und die kann alles, was ich brauche :)
 
Äh, was willst Du mit der Karte denn machen? Wenn es nur rein um die Leistungsaufnahme geht, dann nimm 'ne billige passiv gekühlte.
 
Ich brauch die Karte nur für die Wiedergabe von Videos (derzeit noch über TV-Out). Angeschlossen werden 2 Monitore über DVI.
Daher interessiert mich die 3D-Performance nicht, lediglich die Leistungsaufnahme.

Gruß
 
Wie sieht der Rest vom System aus?

Und wenn du eh keine 3D Performance brauchst, dann nimm (schon alleine aufgrund der Anschaffungskosten) die HD2400XT (vll sogar pro).
 
Hi,

ich habe meine Signatur mal editiert. Die Sache ist halt, dass die 2400XT nur einen DVI-Port hat, ich aber, wie weiter oben schon geschrieben, 2 Monitore anschließen möchte. (oder macht das keinen Unterschied in der Anzeige, wenn ich einen über VGA anschließe?)

Gruß,

Joerg
 
Zuletzt bearbeitet:
Ja, das ist was. Per VGA oder SubD würde ich den zweiten Monitor nicht anschließen, die Qualität ist schlechter.
 
Naja, manche sehen da nichtmal nen Unterschied gesehen. Also so extrem kann es dann nicht sein. Ich habe bisher noch nie einen Vergleichstest gemacht.
Aber der Aufpreis ist ja nicht sooo hoch, dann kannste/musste wohl doch die HD2600 nehmen ...

Von Stromverbrauch her könntest du sogar eine HD3850 nehmen, aber das wäre für deinen Zweck quatsch :D
 
Dann schaue ich einfach, welche von den beiden Karten (MSI oder Sapphire) günstiger ist.

Danke für die Hilfe :)
 
bei monitoren in normalen auflösungen ist VGA oder DVI vollkommen egal. habe vergleiche bei nem 19" 1200x1024 und 40" 1360x768 gemacht, man sieht absolut keinen unterschied, obwohl ich ein 3 meter VGA-kabel (für 2,50 €) und ein 5 meter VGA-Verlängerungskabel (3,20 € ) verwendet habe.

also trotz extrem langem kabel und vermutlich schlechte qualität sieht man keinen unterschied.

DVI-Kabel war ein 5 meter kabel für 9 €
 
Jetzt sagt Commodore Tankred aber, sie sei schlechter ^^

Tankred schrieb:
Per VGA oder SubD würde ich den zweiten Monitor nicht anschließen, die Qualität ist schlechter.
 
Ist sie auch. Nur weil manche Leute sie nicht sehen bedeutet es nicht, dass es nicht so ist. Per SubD werden die die Daten decodiert und wieder codiert. Das bedeutet immer einen Qualitätsverlust. Zudem werden die wichtigsten Bildparameter über DVI automatisch übertragen, was ein optimales Bild ergibt. Hier SubD zu nehmen, zumal DVI preislich keinen Unterschied macht, halte ich für grob fahrlässig.
 
Also ich persönlich merke den Unterschied zu VGA extrem! Mit meinem 22" Monitor (1680x1050) siehts mit VGA extrem scheisse aus. Und wie Tankred schon gesagt hat wird bei VGA das Signal der Grafikkarte zuerst in Analoge Einheiten codiert und dann wieder decodiert. Also ein Verlust ;)

Würde dir empfehlen ne Dual DVI karte zu nehmen:) also HD 2600xt
 
Kommt natürlich auch auf das Signal der GraKa an und wie der Monitor es wieder umwandelt. Das VGA Singnal ist also bei jedem anders :D
 
Das schon. Allerdings interessiert mich das seit Jahren nicht mehr die Bohne, weil ich alle Monitore nur noch digital anschließe. Warum auch SubD nehmen? Wegen der guten alten Zeit?
 
Zurück
Oben