Test Test: Sapphire Radeon HD 2600 XT X2

Also ne 7900 GTX lässt sie zwar hinter sich, aber net alt aussehen ! Is aber krass wenn man sieht das 2 GPUs der neuen Generation nicht gegen einen der alten (1950xtx) anstinken können.
300€ für das Ding auszugeben ist völliger Blödsinn ! Ich hab für meine 79er gtx vor nem Jahr übrigens 380€ bezahlt. (Das war damals das Topmodell) bis dann die gx2 kam...
 
Also so schlecht finde ich die Karte nicht.

Immerhin ist sie bei Qualieinstellungen ungefähr auf dem Niveau einer 7950 GX2 und ohne Qualieinstell.ungefähr auf dem Niveau einer 7900 GTX, nur dass sie noch DX10 unterstützt.

Bleibt der Preis von 300 €. Ich denke aber, dass dies ein Phantasiepreis ist - bei einem Einzelpreis von ca. 90 €.

Wenn der Preis so bei 170-180 € läge, dann hätte sie auf jeden Fall ihre Berechtigung, da sie dann konkurrenzlos wäre.

Alles was teurer wäre als ca. 200 €, wäre negativ für die Karte, da sie so in die Preisregion einer 8800 GTS/320 hineinkäme, gegen die sie keine Chance hat.

Alles in allem keine schlechte Karte, bei der man erst mal den finalen Preis abwarten müsste. Aber wie alle Dual-Karten teilt sie einen gewaltigen Nachteil. Sie kann nicht bei allen Spielen entspechend performanen. So hat sie bei Gothic 3 keinen Vorteil durch ihre Technologie und bei Colin stürzt sie ab. Das ist schon ärgerlich, wenn man so eine Karte hat und entsprechende Spiele spielen möchte.


Gut finde ich auch, dass jetzt mal alle modernen Karten zusammen mit aktuellen Treibern gebencht wurden. So kann man noch mal gut das Performanceverhältnis von HD 2900 XT und 8800 GTX/GTS zueinander sehen.

Also, Redaktion, danke für den umfangreichen Test!!!
 
Zuletzt bearbeitet:
2 Prozessoren in einer Karte. Echt ne gute Idee ^^

Aber naja, da würde ich lieber sparen und mir ne GeForce 8800 GTS 640MB oder sogar GTX kaufen. Die iest 1000x mal besser als die X2..

Trotzdem Lob an CB ! Cooler Test!
 
Schade, dass die Karte nicht viel mehr zu bieten hat, als den optischen Effekt. Dabei ist das eizige wirklich grosse Manko meiner Meinung nach der Preis. Würde die Karte um die 150€ kosten, hätte sie das Zeug ein Renner zu werde. So bleibt dieses Stück Hardware aber wohl ein Ladenhüter.
 
Eigentlich sind alle Mittelklassekarten (ausser 2900Xt, 8800GTS) zum Spielen von neueren Spielen in einer Auflöstung von 1200x1024 nicht zu gebrauchen.

So sieht das Bild der FPS-RAten aus :freak:.

War das bei frühreren Spielen eigentlich schon immer so krass wie heute?
 
Schöner Test wie immer von CB.Ich finde diese Karte auch nicht schlecht und hab ich mich da jetzt verguckt oder ist die Karte für den AGP Port? Sieht doch nach dem alten Steckplatz aus oder brauch ich ne Brille?Dann könnte ich mir auch den hohen Preis erklären,denn die 7950 von XFX für AGP kostet bei Alternate auch noch 222€.AGP Karten werden eh langsam eine Rarität und sind dann wohl auch in der Herstellung teurer nur warum? Aber vieleicht habe ich mich auch geirrt bei dem Foto.

Greetz

Ok hab noch mal genauer hin geschaut.Ist definitiv PCIE ! Wenn sie 250 € kosten sollte auf jeden Fall eine Alternative zu zwei einzelnen Crossfire Karten wenn man nur einen PCIE x16 Port hat.Der hohe Stromverbrauch stört aber mich schon etwas,so das ich bei meiner 8800 GTS 640MB bleiben werde und zu Weihnachten gönne ich mir die 2te für SLI.Dann juckt mich erstmal so schnell nichts mehr im Graka Sector
 
Zuletzt bearbeitet:
Hi,
klasse Test aber bei der Lautstärke macht die Skalierung der Diagramme keinen Sinn.
Wenn mans genau nimmt es es sogar falsch ;)
Dezibel http://de.wikipedia.org/wiki/Dezibel ist logarithmisch...
Wäre cool wenn ihr das auch so darstellen würdet...dann wären die Unterschiede auch wesentlich deutlicher...
so far...just my 2 cents...

Physiker...sorry ich kann nix dafür :D
 
Wie von CB versprochen:cool_alt:

Die karte, is nichts für Gamer, dass ist klar, aber wer 4 bildschirme gleichzeitig braucht kann diese karte kaufen.

...läuft es für die Kanadier in der Mittelklasse deutlich besser...
Ich dachte die wären nach kalifornien, zu AMD gezogen:freaky:
 
DaFreeman schrieb:
Hi,
klasse Test aber bei der Lautstärke macht die Skalierung der Diagramme keinen Sinn.
Wenn mans genau nimmt es es sogar falsch ;)
Dezibel http://de.wikipedia.org/wiki/Dezibel ist logarithmisch...
Wäre cool wenn ihr das auch so darstellen würdet...dann wären die Unterschiede auch wesentlich deutlicher...
so far...just my 2 cents...

Physiker...sorry ich kann nix dafür :D
Hehe, natürlich völlig richtig, aber CB schaffts ja nichtmal das "Stromverbrauch" in "Leistungsaufnahme" umzuwandeln, also erwarte da nicht zuviel an Veränderung. ;)

edit:
Oh, wurde ja dochmal geändert, ich nehm alles zurück und behaupte das Gegenteil.
 
Zuletzt bearbeitet:
naja ich mein ja eigentlich nur das die sachen so grob irreführend sind.
wenn ich meinen schädel in nen jettriebwerk stecke bei sowas wie 150db wird er auf grund des schalldrucks platzen...obwohl es doch "nur" 3 mal so viele dbs wie zimmerlautstärke ist :D
denn 150db sind 10.000mal so laut wie 50db...
genauso sind 60db auch rund 300% von 50db und nicht 120%...dadurch entsteht doch nen völlig falsches bild :rolleyes:
ok also wenn sie es doch versuchen wollen und beim thema logarithmen grade kreideholen waren:
http://www.sengpielaudio.com/Rechner-db.htm
da werden sie geholfen... (Feldgröße nehmen) insofern denn Schalldruckpegel gemeint ist (sollte eigentlich ;) )
und nochmal zum langsam lesen
http://de.wikipedia.org/wiki/Schalldruckpegel
alternative fürs umrechner...
http://www.sengpielaudio.com/Rechner-schallpegel.htm
 
Zuletzt bearbeitet:
Also so schlecht find ich die Karte gar nicht.
Ich mein ... ich fahr ja im Moment selbst mit einer 8800GTS 320MB ...
Auf jeden Fall find ich den Entwicklungsschritt in diese Richtung gut und es sei auch anzumerken, dass Sapphire seit der Dual X1950Pro einiges dazu gelernt hat, wie man sieht.
Ich finde es ebenfalls bemerkenswert, dass nVidia seit der 7950GX2 kein "Dual-Produkt" mehr auf den Markt gebracht hat. Und letztendlich ist die Leistung pro Watt bei der HD2600XT X2 ja besser als bei der HD2900XT.

Mir scheint dieser Ansatz, wie gesagt, jedenfalls korrekt. Allerdings müssten sochle Karten noch kleiner werden.
Mir ist selbst das Gerät von Gecube (Gemini 3) zu groß ...
 
Ich teile da das Fazit der CB Redaktion. Das P/L-Verhältnis stimmt hinten und vorne nicht.

Die Karte an für sich ist ganz nett, wird sich aber in dieser Preisklasse so nicht durchsetzen können.

mFg tAk
 
Ich sehe die Entwicklung der Multi-GPU Lösungen kritisch, wenn auch der wohl einzig sinnvolle Schritt in die Zukunft.
 
LoL, eine 8800GTS 320MB ist um einiges günstiger als diese Karte und zb bei Anno 1701 doppelt so schnell..
 
Sehr schöner Test. Was mich bei dieser Karte enttäuscht ist der hohe Preis, die Lautstärke und der Stromverbrauch. Der Kühler finde ich hingegen nicht schlecht.
 
Spidy.ch schrieb:
Ich sehe die Entwicklung der Multi-GPU Lösungen kritisch, wenn auch der wohl einzig sinnvolle Schritt in die Zukunft.

Habe ich mich sowieso schon gefragt, warum die GPU-Hersteller diesen Weg nicht gehen wenn es die CPU-Hersteller schon lange erfolgreich tun. Wird bestimmt noch kommen.

SLI-Fähigkeit ist ja praktisch soetwas.
 
ein Vorteil der Karte dürften die vielen Videoausgänge sein, wenn man daran auch 4 Displays anschliessen kann.
 
Zurück
Oben