Test Test: ATi Radeon HD 2900 XT CrossFire

also ich denke, dass mittlerweile auflösungen von 1600x1200 aussagekräftig und wichtig sind.

21" und widescreens kommen immer mehr in mode also brauchts auch die hohen auflösungen in tests. ich hab mir nach meiner gf 6800 mit 128mb ein 1680x1050 tft gekauft. das war, spieletechnisch betrachtet äußerst dumm, da die karte die native auflösung absolut nicht bewältigt. und niedrige auflösung sieht sch...ße aus.

und noch höhere auflösungen zeigen doch, auch wenn keine sau die braucht, welches potential in einer karte steckt. also ganz außer acht lassen sollte man das nicht.
 
xp_home schrieb:
seit wann ist 2560x1600 wichtiger als die Auflösung die ich genannt habe? Wichtig ist die Auflösung, die am meisten verwendet wird, da diese die Kaufentscheidung beinflusst. Sei nicht so vernarrt.

Ich habe nicht gesagt, dass die hohe Auflösung wichtiger, sondern aussagekräftiger ist. Je höher die Auflösung und die Qualitätseinstellungen, je mehr wird die Grafikkarte gefordert. Was bringt es mir, wenn eine Karte in 800x600 ohne AA/AF spitzen Werte liefert, besser als alle anderen, aber dann in höheren Auflösungen einbricht.

Eben, nichts. Es mag durchaus stimmen, dass 1280x1024 (noch) die meistgenutze Auflösung ist, aber um eine moderne Grafikkarte zu fordern, reicht das eben nicht, da vorher die CPU limitiert. Sieht man ja schön an dem erwähnten Test, in 1280x1024 ist die ATi vielleicht 10% schneller, in der höheren Auflösung zieht sie mit über 40% davon.

Meinem Vorredner kann ich mich da auch nur anschließen. Das wars auch von mir jetzt dazu, gehört nicht hierher.
 
Ich habe mich eigentlich auch auf "Rating 1600x1200 4xAA/16xAF" bezogen in denen es eben auch ca. 10 Prozent sind. Für 2560x1600 war/ist diese Grafikkarte einfach nicht ausgelegt und bricht deswegen dort ein. Das hat nichts mit Aussagekraft zu tun. Wenn die Karte für maximal 1920×1080 ausgelegt (Cachegröße auf dem Grafikchip, Bandbreite zum Speicher, Speichergröße...) ist, dann bricht sie halt ein wenn du drüber gehst.

Für 2560x1600 wäre die nVidia GeForce 7950 GX2 geeigneter, die übrigens zur Zeit sogar billiger ist als die Radeon 1950XTX: https://www.computerbase.de/forum/threads/geforce7950-gx2-fuer-179-eur-bei-alternate.288297/
 
Zuletzt bearbeitet:
Also ich muss sagen das die 2900XT, ne sehr gute leistung bietet, Ich habe selbst vor einer woche gekauft, und bin sehr zufrieden.
Es ist doch egal was die Geforce 8800 bietet, sehr viel kann ,man doch so oder so nicht erkennen und wer spielt schon auf einem TFT mit 30zoll, die meisten LCD haben auch nur 1280*1024 oder?Bei FSX kann ich die leistung dieser karte, gegenueber meiner alten X1950XTX gut erkennen.
FAZIT:Ich kauf gleich noch eine:schluck:

------------------------------------------------------------------------
AMD Athlon FX-60 @ 3,73Ghz
A9RD580 Crossfire
2Gb Corsair XMS cl.2
HD 2900XT
S-ATA Seagate Barracuda 320GB
Coolermaster Mistique 132
 
Naja wieso glauben alle Leute diese Tests? Hätte ich vor einem halben Jahr die erste voll Vista (DX10) fähige Karte benuzt dann hätte ich wahrscheinlich einen Blue Screen bekommen.Grüße an die 8800GTX die mit Vista erst nicht harmonierte;-)!
Die HD2900XT hat
A einen scheiß Treiber (Nvidia hat auch Monate an seinem Rumgetippt bis der "gut" war)
B Für DX9 Games reicht die Karte und es wird keine DX9 Games mehr geben. (wieso Oblivion usw
C Die ersten Vistagames wie Company of Heros usw wären in dem Falle doch eher in Betracht zu ziehen.!

Außerdem ist Nvidias Werbung nicht schön!!
 
Kartoffel200 schrieb:
Naja wieso glauben alle Leute diese Tests?
Gegenfrage: Wieso sollten wir dies nicht? Nicht jeder hat in seinem Keller ein Testlabor, wo er zig verschiedene Grafikkarten benchen kann, deshalb gibt es ja Seiten und Magazine, die das machen, damit wir wissen, welches Produkt für einen Preisbereich "das Beste" ist.

B Für DX9 Games reicht die Karte und es wird keine DX9 Games mehr geben. (wieso Oblivion usw
Das bezweifle ich stark. Wenn man mal von Spielen absieht, die aus Marketingstechnischen Gründen nur auf DX 10 spielbar sind, z.B. MS Halo 2 und Shadowrun, welche die Vista Verkäufe ankurbeln sollen (was sie wahrscheinlich aber nicht schaffen werden), werden wir noch einige Jahre Spiele mit DX9 Unterstützung haben. Diese werden natürlich auch DX10 Unterstützung bieten, aber auch auf DX9 und somit auch auf XP spielbar sein. Und man weiß ja nie, ob die neue Engine von id wieder an die Glanzzeit alter Tage anknüpfen kann. Ich würde es ihnen gönnen, kann die UE3 nicht mehr sehen :D

Außerdem ist Nvidias Werbung nicht schön!!
Welche Werbung ist gemeint?
 
Kartoffel200 schrieb:
Außerdem ist Nvidias Werbung nicht schön!!

Das ist wirklich ein TOP! Grund, die Karte nicht zu kaufen. Lieber ein schlechteres Produkt kaufen, Hauptsache die Werbung ist besser? ROFL.... naja jeder hat andere Kriterien, nach denen er seine Ware aussucht. Soll auch Leute geben, die nach dem Design des Lüfters gehen, obwohl man den gar nicht mehr sehen kann, wenn die Karte eingebaut ist... ist in etwa genau so sinnvoll ;)
 
Bei deiner vielleicht, aber nicht bei Karten mit Referenzdesign/-kühler, was etwa 95% aller Karten haben...
 
gibt es eigentlich adapter o.ä. für den 8-pol anschluss einer 2900? ich hab nämlich ein NT mit nur zwei 6-pol anschlüssen für grafikkarten.
 
@ T3dbundy: das enermax ist auf 8-pol ausgelegt und man kann den stecker, wie bei den mainboardsteckern kombinieren.

@ masterchorch: und wie sieht dann dieser adapter aus? wohl sicher nur so, dass man den normalen 6-pol auf den 8-pol aufstecken kann. im review der hd 2900 xt steht, dass diese nicht zu übertakten geht ohne 8-pol.

bei adapter dachte ich an sowas wie kombination von 6-pol mit nem normalen 12V 4pol anschluss oder so.

oder kommt man echt nicht um ein neues nt herum? das wäre noch mal ein grund für mich, nicht zu ati zu greifen.
 
P.S. Es ist ja auch so: wen die HD2900XT 320 shader haette, wuerde die nVidia leicht abhangen koennen.....
...das ist komisch...
-----------------------------------------------------------------
AMD Ahlon FX-60 @ 3,73Ghz
A9RD580 Cf
X1950XTX+X1950
2Gb DDR400 TwinX
Coolermaster Mistique132
 
Zuletzt bearbeitet:
hat sie aber nicht und das ist der Punkt.

mfg
Tobi

ps: bin ja mal auf die mit 1GB GDDR4 Speicher gespannt. Hat schon wer Benchmarks gesichtet?
 
Ich glaub nicht, dass die soviel schneller sein wird, die meisten Spiele werden davon wohl nicht profitieren...
 
Die karte hat nur 64 shader nicht 320,
nVidia hat schon 128 "gute" shader im teil,und die funtzen auch gut
----------------------------------------------------------
AMD Ahlon FX-60 @ 3,73Ghz
A9RD580 Cf
X1950XTX+X1950
2Gb DDR400 TwinX
Coolermaster Mistique132
 
@philip:

du brauchst kein neues nt, den karten liegt jeweils ein 6pol adapter bei, damit laufen sie problemlos.
um übertakten zu können muss jedoch auch noch der 8pol anschluss an der platine belegt sein.
dies geschieht entweder auch über einen adapter oder man hat eben schon pcie 2.0 anschlüsse an seinem nt.

wie versprochen hier ein paar HD2900XT Crossfire Scores von mir,
hatte bisher leider wenig Zeit, daher nur kurze Testruns...

3D06: 19974 Punkte

3D05: 28738 Punkte

damit ist das CF Gespann im 3D06 absolut gleichauf mit einem 8800GTX SLI Verbund,
im 3D05 führt ATI momentan sogar deutlich.
 
Zuletzt bearbeitet:
Sam Bradford schrieb:
Die karte hat nur 64 shader nicht 320,
nVidia hat schon 128 "gute" shader im teil,und die funtzen auch gut

Nein, der R600 hat insgesamt 320 Shader, also 64 welche bis zu 5 Operationen gleichzeitig ausführen können (64*5).
Der G80 hat dagegen nur 128 Shader, welche dafür höher getaktet sind. Außerdem punktet der G80 durch seine deutlich überlegene Pixel- und Texturleistung.
 
ich hol mir die nächsten wochen einen neuen rechner. würdet ihr mit zur 8800gtx oder zur hd2900xt raten?

kann ich noch hoffen, dass die treiber bei ati verbessert werden/sind und so die leistung der gtx übertroffen wird?
 
Zurück
Oben