Test Test: ATi Radeon HD 2900 XT CrossFire

xp_home schrieb:
Wieso erschließt sich dafür kein Grund? Die Temperaturen werden doch nur deswegen erreicht, weil der Lüfter eben laut und schnell dreht. Außerdem wäre die Leistungsaufnahme der Karte höher, wenn man sie weniger gut kühlen würde bzw. wenn man eine höhere Temperatur zulassen würde.
Ansonsten ein schöner Test. Auch das Fazit ist Klasse! :daumen:
Natürlich hängt dies alles irgendwo miterinander zusammen, doch habe ich lieber einen leicht höheren Stromverbrauch als dauernd zwei sehr laute Lüfter, die einem bei allem stören. Und wirklich warm wird die Karte ja nun wirklich nicht, da hbae ich schon ganz anderes gemessen.

@markus1234
Ohne AA/AF ist unserer Meinung nach bei SLI/CF sinnlos. Wer kauft sich zwei High-End-Grafikkarten und spielt dann ohne AA/AF? Ich kenne niemanden.

Warum unterscheidet sich der Stromverbrauch der HD 2900 XT so stark zum vorherigen Test?
Dies steht auch im Text. Für CrossFire benötigtg man ein anderes Mainboard, und dieses hat einen deutlich geringeren Stromverbrauch als der nForce 680i.


Und bezüglich der Treibersache: Wie auch im Artikel geschrieben, ist der Catalyst 7.5 nicht wirklich schneller als der Launch-Treiber. In manchen sSpielen 1-2 FPS schneller, in manchen aber auch 1-2 FPS langsamer.
 
Seppuku schrieb:
Wo habe ich denn bitte behauptet, dass man aus Fehlern nicht lernen soll?? Und warum soll meine Argumentation lächerlich sein?
Und nur weil jemand aus einem Fehler gelernt hat, hat er noch lange nicht das Recht, andere, die den gleichen Fehler begehen, schon fast als dumm hinzustellen!
Diese Arroganz und Überheblichkeit in manchen Beiträgen gegenüber ATI/AMD und deren Käufern ist einfach nur noch nervig!

Na-ja, es gibt halt schlaue Leute, die lernen aus Fehlern der anderen. Nicht so schlaue Leute lernen aus eigenen Fehlern und blöde Menschen lernen aus gar keinen Fehlern. Was ist also daran falsch andere Menschen darauf dringlich hinzuweisen nicht die Fehler von früher zu machen?

Seppuku schrieb:
Nur weil man jetzt das Wissen habe, braucht man noch lange nicht vergessen, dass man auch einmal nicht auf alle Dinge (wie z.B. den Stromverbrauch und die Lautstärke) geachtet hat (und die Zeit gab es bei jedem mal).

Das Wissen ist dazu da um es zu Nutzen und nicht um für die Gesellschaft kontraproduktiv rückwärts zu argumentieren.
 
Lasst uns alle einmal zurückdenken-ATI hat ehr lange gebraucht, bis die karte rauskam-
sie haben in einigen interviews auch gesagt, dass es nicht so ein treiberfiasko wie bei nvidia gibt. ich persöhnlich glaube nicht, dass ati die karte rausgebracht hätte, wenn die treiber nicht schon etwas weiter währen-anscheinend sind die treiber derzeit für sie ja ok-meiner meinung nach allerdings katastrophal-


ich denke, dass man die performanceprobleme in einigen spielen nicht nur auf ein treiberproblem schließen lassen. evtl. gibt es ja doch auch ein architekturproblem...
 
@ Wolfgang

Die Erklärung, dass alleine das Mainboard für den geringeren Stromverbrauch im idle verantwortlich ist, nehme ich dir nicht ganz ab.
Laut dem Test der Einzelkarte braucht eine HD 2900 XT 14 Watt mehr im idle als die GTX.
Wenn man das linear weiterrechnet, bräuchten dann 2 2900 28 Watt mehr im Crossfiremodus als die GTX im SLI-Verbund.
Laut dem aktuellen Test braucht aber das Crossfiresystem 32,2 Watt weniger als das SLI-System.
Das ist dann eine Differenz von 50,2 Watt vom erwarteten Wert. Selbst wenn man jetzt die lineare Skalierung nicht so eng sieht und und niedrigeren Stromverbrauch des Intelchipsatz berücksichtigt, dann bleibt trotzdem noch einiges an Erklärungsbedarf.


@ xp_home

Es spricht natürlich nichts dagegen, die Leute eindringlich darauf hinzuweisen. Doch finde ich diese Arrogante, überhebliche, besserwisserische, teilweise triumphale Art einfach unmöglich!
 
markus1234 schrieb:
AA/AF stellen nur einen Teil der Leistung dar. Etwas, das ihr sehr gerne beim Test auslasst.
Du raffst es wohl einfach nicht! AA/AF stellt im High End Bereich eben nicht nur einen Teil der Leistung dar. Vor allem nicht mit Corssfire. Kein Mensch auf dieser Kugel ist so ein dämlicher Fanboy, dass er sich für 340 oder sogar für 680 Euro + Monster NT Hardware zum zocken kauft und dann ohne AA/AF spielt. Und hätte eine HD2900 100% mehr FPS ohne AA/AF, aber eine 8800 50% mehr Frames im spielbaren Bereich ( also ca. über 50 FPS ) mit AA/AF als eine HD2900 würde ich trozdem die Geforce nehmen. Ohne AA/AF zählt es bei High End Karten rein GARNIX eine gute Performance zu liefern. Im Mainstream bereich ist das was anderes.
 
Wie immer ein schöner und sehr ausführlicher Test. Ich hätte da aber ein paar Fragen und auch einen Kritikpunkt.

Wann werden immer die Screenshots gemacht? Mit jedem Test neu oder werden alte aus dem Archiv herangezogen?

Und mein Kritikpunkt bezieht sich auch auf die Screenshots, um genau zu sein auf die von Vegas und Splinter Cell 4.
Zu Vegas: Ihr habt in eurem Kommentar angegeben, dass unter Direct-X 9 kein AA möglich wäre. Nach euren Screenshots sollte es aber mit einer Geforce 8 möglich sein. Wenn man die Screenshots von Der G80 mit der der anderen vergleicht (auch mit der R600) stellt man fest, dass die G80 fast keine Treppchenbildung aufweist. Obs jetzt durch echtes AA oder durch einen anderen Filter zustande kommt ist ja egal. Im Endeffekt hat die G80 die deutlich bessere Bildqualität und der Geschwindigkeitsvorteil der R600 ist in diesem Test für die Katz. Dieser Test sollte deshalb bei der Endbewertung keine Rolle spielen und auch im Text darauf hingewiesen werden.

zu Splinter Cell 4:
Kann es sein, dass es hier ein kleines Durcheinander bei den Screenshots gab? Im Text steht, dass auf die Ergebnisse der G70 verzichtet werden, da sie kein HDR+AA gleichzeitig beherrscht und es kein Screenshot für die R600 wegen Grafikfehlern gibt. Trotzdem ist eine Zeile drunter alle 4 Screenshots vorhanden. Der Screenshot zu G70 scheint zu passen: aktiviertest HDR aber kein AA. Für die G80 passt es schon nicht mehr, da scheint man vergessen zu haben AA zu aktivieren oder es wurde wegen Treiberprobleme nicht richtig dargestellt. Die R580 passt wieder HDR+AA aktiviert. Soll der R600 Screenshot die Grafikfehler zeigen? Schattenbereiche an Stellen, an denen die Sonne draufscheint? Naja im Endeffekt würde ich auch diesen Test vom Endergbnis ausschließen, da man nicht weiß wie sich die Korrektur der Grafikfehler auf die Performance auswirken wird.

btw. Die R600 scheint das gleiche Problem bei Call of Juarez zu haben. Sollte man eigentlich erkennen, wenn man sich die Screenshots mal anschaut.
Darf man fragen wieso für den Test von Call of Juarez die Demoversion benutzt wird und nicht die Vollversion?

-edit-
Ich sehe grade das gilt bereits für den Einzeltest. Ist mir jetzt erst so ins Auge gefallen, dass ich mich aufgerafft habe mich zu reggen, weiß nicht obs schon jemandem im Einzeltest aufgefallen ist.^_-
Was mich aber bei meiner Vermutung verstärkt, dass Screenshots einmal gemacht aus dem Archiv wiederverwertet werden.

btw. hab ich ja glatt noch eine Frage vergessen: Wieso sieht im R600 Screenshot von Doom3 das Bild so gequetscht aus?
 
Zuletzt bearbeitet:
Meine Güte! Wenn ein Testsystem unter Last 519Watt brauch, dann ist das doch völlig krank!!! Da knackt man ja die 400€ Marke an Stromkosten jährlich nur für den Rechner....
 
das heißt 2 Stunden zocken>>> ca. 20cent Strom zahlen. LOOOOL

mfg
Tobi
 
10 Cent pro Stunde --> 24h unter Volllast: 240 Cent --> 365 Tage unter Volllast 876 Euro:D
@Grandepunto du hast dein Rechner jeden Tag etwas weniger als 12h unter Volllast?:freak:
 
Ich finde es ist schon wichtig wie efficient eine Grafikkarte arbeitet, aber finde ich diese Energiethematik etwas überbewertet denn:

Alle reden von Quadcore, 2 oder 4 Gig Ram, 500 Gig HD, min 550 Watt Netzteil, Soundkarten mit RAM, PPU usw.

Wo dachten denn alle hin----Mehr Leistung ist auch gleich mehr Stromverbrauch.

Klar ist es nicht von der Hand zu weisen das Nvidia da besser ist, aber über die 20 Watt mehr die ein nForce 680 SLI verbratet darüber redet niemand, aber die 20 - 30 Watt mehr unter last fallen da schon krass auf.

Jemand der sich ein SLI oder CF System Leisten kann hat auch die 5-10 Cent mehr Übrig um sein System unter Volllast laufen zu lassen.

Alle feierten den Core 2 Duo mit seinem geringen Stromverbrauch, weil die Netburst Architektur eine vollwertige Heizplatte war.... und nun 4 Cores und ca 90 bis 120 Watt Verbrauch. Klar hat man mehr Leistung aber wers haben will soll nicht meckern und sagen: Unglaublich soviel Strom.

Ich finde wenn man sich ein gutes Netzteil mit min 85 % Ausbeute hat dann ist der Mehrverbrauch von Strom wieder eingespielt.
 
M. Linux schrieb:
10 Cent pro Stunde --> 24h unter Volllast: 240 Cent --> 365 Tage unter Volllast 876 Euro:D
@Grandepunto du hast dein Rechner jeden Tag etwas weniger als 12h unter Volllast?:freak:

OK, war ganz leicht übertrieben. Rechne aber mal noch ne 5.1 Anlage nen guten Bildschirm und noch ein paar Kleinigkeiten dazu und schon fällst du um....
 
@ Grandepunto

da kommst auf ca 1000€ wenn man alles mitrechnet. Vielleicht noch 2 Bildschirme. TV Karte(dann spart man sich wenigstens den Fernseher:D:D:D) Natütlich dürfen die richtigen Festplatten und der Quad Core nicht fehlen. Stimmt wenn man sich ne fette Surroundanlage bastelt kann auch nicht schaden. Mit nen paar Basssss Boxen macht das sicher ne fetzn Gaudi.:D:D

mfg
Tobi
 
Also bei diesem Artikel habe ich mir nur den Stromverbrauch und danach den 3d Mark 2006 angeguckt und mehr brauche ich dann auch nicht zu wissen:lol:. Wer sich so ein Gespann holt muss entweder ein Fanboy sein oder zu viel Geld haben. Jedenfalls dürfte die Stromrechnung gewaltig ausfallen.

Bei mir läuft der Rechner locker 5-10 Stunden am Tag und ich habe jetzt schon einen Abschlag von knapp 40€. Wie der Stromabschlag mit 2 HD2900XT aussehen würde möchte ich gar nicht wissen:rolleyes:.

gruß
Lumi25
 
@Seppuku
Die Differenz entsteht ja eben durch das andere Mainboard. Würden wir nur mit dem Board testen, würde das ganze direkt wieder ganz anders aussehen.

Gamabunta schrieb:
Wie immer ein schöner und sehr ausführlicher Test. Ich hätte da aber ein paar Fragen und auch einen Kritikpunkt.

Wann werden immer die Screenshots gemacht? Mit jedem Test neu oder werden alte aus dem Archiv herangezogen?

Und mein Kritikpunkt bezieht sich auch auf die Screenshots, um genau zu sein auf die von Vegas und Splinter Cell 4.
Zu Vegas: Ihr habt in eurem Kommentar angegeben, dass unter Direct-X 9 kein AA möglich wäre. Nach euren Screenshots sollte es aber mit einer Geforce 8 möglich sein. Wenn man die Screenshots von Der G80 mit der der anderen vergleicht (auch mit der R600) stellt man fest, dass die G80 fast keine Treppchenbildung aufweist. Obs jetzt durch echtes AA oder durch einen anderen Filter zustande kommt ist ja egal. Im Endeffekt hat die G80 die deutlich bessere Bildqualität und der Geschwindigkeitsvorteil der R600 ist in diesem Test für die Katz. Dieser Test sollte deshalb bei der Endbewertung keine Rolle spielen und auch im Text darauf hingewiesen werden.

zu Splinter Cell 4:
Kann es sein, dass es hier ein kleines Durcheinander bei den Screenshots gab? Im Text steht, dass auf die Ergebnisse der G70 verzichtet werden, da sie kein HDR+AA gleichzeitig beherrscht und es kein Screenshot für die R600 wegen Grafikfehlern gibt. Trotzdem ist eine Zeile drunter alle 4 Screenshots vorhanden. Der Screenshot zu G70 scheint zu passen: aktiviertest HDR aber kein AA. Für die G80 passt es schon nicht mehr, da scheint man vergessen zu haben AA zu aktivieren oder es wurde wegen Treiberprobleme nicht richtig dargestellt. Die R580 passt wieder HDR+AA aktiviert. Soll der R600 Screenshot die Grafikfehler zeigen? Schattenbereiche an Stellen, an denen die Sonne draufscheint? Naja im Endeffekt würde ich auch diesen Test vom Endergbnis ausschließen, da man nicht weiß wie sich die Korrektur der Grafikfehler auf die Performance auswirken wird.

btw. Die R600 scheint das gleiche Problem bei Call of Juarez zu haben. Sollte man eigentlich erkennen, wenn man sich die Screenshots mal anschaut.
Darf man fragen wieso für den Test von Call of Juarez die Demoversion benutzt wird und nicht die Vollversion?

-edit-
Ich sehe grade das gilt bereits für den Einzeltest. Ist mir jetzt erst so ins Auge gefallen, dass ich mich aufgerafft habe mich zu reggen, weiß nicht obs schon jemandem im Einzeltest aufgefallen ist.^_-
Was mich aber bei meiner Vermutung verstärkt, dass Screenshots einmal gemacht aus dem Archiv wiederverwertet werden.

btw. hab ich ja glatt noch eine Frage vergessen: Wieso sieht im R600 Screenshot von Doom3 das Bild so gequetscht aus?

Ein sehr schöner Post mit sehr vielen Wahrheiten! :)
Die Bilder werden einmal gemacht (meistens beim Erscheinen der Karten) und dann immer wieder verwendet.Alles andere wäre zu viel Zeitaufwand. Demnächst wird es aber völlig neue bilder geben.

Das mit Vegas ist mir noch gar nicht aufgefallen. nVidia hat seit geraumer Zeit in den G80-Treiber einen Workarround für AA bei Vegas eingebaut, ohne diesen geht kein AA. Ich hatte dann wohl im Treiber 4xAA aktiviert, als ich den Screenshot gemacht hatte...Ich kann aber versichern, dass das in den Benchmarks nicht deer Fall ist.

Und ja, in Splinter Cell 4 ist auch einiges durcheinander geraten, was wir demnächst, wie oebne geschrieben, beheben werden. Der R600 kann mittlerweile fehlerfrei in SC4 AA darstellen, deswegen gibt es den Screenshot. Den Text habe ich vergessen zu löschen.
Mit der anderen Darstellung der Schatten hat meine Bemerkung aber nichts zu tun, das waren andere Grafikfehler.

Und die Frage wegen Doom 3...ich habe, um ehrlich zu sein, keine Ahnung, warum das Bild so gequetscht ist.
 
ich stehe kurz vorm kauf eines neuen systems mit: na ratet mal, nvidia-grafik!

sehr schade. habe extra gewartet auf die veröffentlichung des r600 um mir die beste karte was P/L betrifft zu kaufen (habe auf ati gehofft). tja dann wirds wohl doch wieder nvidia sein.

es sei denn, amd bringt schnell einen super treiber raus und baut neue lüfter auf die karten.
vor allem die lautstärke verärgert mich. der stromverbrauch ist auch fürn a...sch.
 
Ich weiß ja nicht, hätt aber bissle mehr Power in den Benchmarks erwartet im Vergleich zur 8800 GTX SLI, naja und stromtechnisch:p
da kommt bestimmt die ersten paar Wochen einer vom E-Werk immer vorbei und überprüft ob der Stromzähler net kaputt ist:D
 
ich persönlich favorisiere auch eher ati karten,aber es ist einfach erbärmlich und traurig zuzusehen wie ati versucht mit einer jetzt schon schlechteren karte als die von nvidia (8800 GTS ,wobei das noch nicht mal highend ist.....) doch noch irgendwie das ruder reisen zu wollen...dass irgendein high end enthusiast die karte auch noch im crossfire modus kauft,müssten sie ihm noch mindestens ein paar 100 schokomünzen hinterher werfen....ati hat das rennen verloren,fangt schonmal mir DX 11 an,vllt könnt ihr so nvidia, wenigstens gleich auf sein^^
 
Mit dem Kauf der Karte würde ich noch warten, denke da ist noch eine Menge Potenzial, wenn man sich die Daten auf dem Papier anschaut.
Allerdings hoffe ich das ATI schnellstens wieder konkurrenzfähig wird, da das gut für den Wettbewerb ist.
nVidia hatte einen Patzer in der Art allerdings auch mal, wenn man an die FX-Reihe denkt.
Die FX5800Ultra war damals ein Flop, konnte ATIs Topmodell(Radeon 9700Pro) nur knapp überbieten, schon zog ATI mit der 9800Pro nach. Auch die nachfolgenden, kleineren Modelle waren schlapp, waren anfangs sogar noch langsamer als die gute alte Ti4200. Erst die letzten rausgebrachten FXModelle wie 5700Ultra und die 5900er waren gut.
Was sehen wir daran? Auch nVidia hatte so eine Krise und hat sie überstanden, also denke ich das ATI/AMD das auch schaffen wird.

PS: Eigentlich unglaublich dass das schon wieder so lange her ist mit der
 
ein kleiner oc-vergleich fehlt noch - und keine ausreden dass sich die karten im cf nicht oc'n lassen...

ich hoffe meine karten sind in ein paar tagen da und dann kann ich auch beantworten ob es sich lohnt von x1900CF auf 29CF umzusteigen.

die große diskusion wegen 30w mehr stromverbrauch unter volllast kann ich kaum nachvollziehen, erstens kommt man dafür etwas sparsamer im idle weg (und mein rechner idelt definitiv mehr) und zweitens finde ich es unangebracht bei einem system wo allein die grafikkarten über 700€ kosten über 30w zu sprechen - und die lautstärke wird sowieso mittels wakü ausgebremst... ;)
 
Zurück
Oben