Test Test: ATi Radeon HD 2900 XT

Super Test - enttäuschende Karte.

Aus welchem Grund sollte jemand, der noch bis heute gewartet hat und sich noch keine 88er geholt hat nun dieses Stück Hardware kaufen?

Selbst wenn die Treiber noch was reißen können disqualifiziert sich das Gerät allein durch den Stromverbrauch. :(

Vielleicht haben die bei ATI in den letzen 7 Monaten die Kohle von AMD versoffen und sind deshalb gar nicht zum weiterentwickeln gekommen oder was?:schluck:

Bleibt die Hoffnung auf ein Refresh des gesamten Chips und die Mittelklasse, damit ATi wieder Geld verdient.
Sollte mich nicht wundern wenn es mit AMD-Ati genauso geht wie mit Daimler-Chrysler.

Sehr schade, denn was wir sicher als Letztes brauchen ist ein Hersteller der den Markt dominiert und macht was er will!
 
Selflex schrieb:
mein Fazit, es muss nicht immer eine ATI sein :) Alle die gewartet haben, sind doch selber schuld. Alleine schon das eine neue Ära mit D310D eingeleutet wurde, wurden die Karten neu gemischt und alte Bräuche zur nichte gemacht! Wer 1 und 1 nicht zusammen zählen kann ist selber schuld :)

Und die Bildqualität ist und bleibt dieses Jahr bei NVIDIA, schaut euch doch mal RainbowSixVeags an, die G80 hat schon eine bessere Quali als R600 ohne AA und gedöns!

Mfg Selflex

Heute muß man eh flexibel sein, ich bin mit meiner alten GK noch voll zufrieden aber wenn ein 30" Monitor kommt reicht das nicht mehr. Wenn die X2900XT die 8800GTX geschlagen hätte, hätte ich mir 2 geholt, so warte ich nochmal auf die 2900XTX in 65nm und auf PCIe 2.0 und entscheide dann.
 
Ich habe mehr von ati/amd erwartet. Gerade zum Launch sollten leistungsfähige Treiber zur Verfügung gestellt werden.

Der hohe Stromverbrauch wurde ja immer wieder angeprangert, nachdem man jetzt bestätigte Angaben bekommen hat, wirds erst deutlich wie energiefressend die Karte ist. Mit dem Argument hohe Leistung = hoher Stromverbrauch kann mir keiner kommen. Die GTX und gar Ultra ist leistungsfähiger und "etwas" sparsamer. Schade. Ich kann nur hoffen, das amd noch deutlich leistungsfähigere Treiber herausbringt und sich von womöglich doch von einer GTX abheben kann.

Zum anderen ärgert mich, dass mein erst seit Nov 2006 erworbenes NT nicht nutzen kann, weil die doofe Graka einen 6+8 Pin Stecker benötigt. Womit wir wieder beim Thema Stromverbrauch sind. Ok. wenn ich nicht OCe solls ja reichen, aber da habe ich ja viel von.
 
Zock schrieb:
Gut ich gebe auf ich hoffe du hast es dir schon bestellt und dazu noch VISTA da du es ohne natürlich nicht spielen kannst. Schade das ich dein Gesicht nach dem Starten des Games nicht sehen kann.

Viel Spaß

1. Habe ich es noch nicht bestellt.
2. Bin ich Vista owner der ersten Stunde.
3. Ohne Effekte langt meine 1950Pro zur not auch.
4. Sieht mein Gesichtsausdruck dann ungefähr so aus: :cool_alt: oder so: :)
5. Solltest du die Finger von den Drogen lassen, denn die sind nicht gut für dein Gehirn.
6. Könntest du jetzt langsam mal aufhören hier unnötig herumzutrollen und beim Thema bleiben.
7. Habe ich diesen Beitrag umsonst verfasst, weil er wahrscheinlich länger ist als deine Aufmerksamkeisspanne
 
sdMAX schrieb:
Wenn die X2900XT die 8800GTX geschlagen hätte, hätte ich mir 2 geholt, so warte ich nochmal auf die 2900XTX in 65nm und auf PCIe 2.0 und entscheide dann.

Wenn die XTX kommt dann ist wohl schon die 9800GTX, oder wie auch immer, draußen!

Warten kannst du bei einem PC kauf sogut wie nicht!

Selbst wenn die Karte auf GTX level wäre, wäre sie eine enttäuschung denn der Stromverbrauch ist enorm!

@ $corpion: :lol: ;)
 
zugegeben: bin auhc ein wenig enttäuscht. waren die pre benchmarks von dubiosen seiten wieder kein pfifferling wert. hätte mir ne gesunde konkurrenz gewünscht, armes AMD irgendwie. sehe schon die monopol stellungen wiederkommen :/
 
Selbst bei Battlefield 2142, in den Auflösungen die mein TFT nur maximal packt, also 1280x1024, ist ein Gespann aus 2 HD2900XT im Schnitt 14 FPS langsamer als eine einzelne GTX. Treiberoptimierung hin oder her, soviel wird sich da nicht mehr tun. Und eine einzelne HD2900XT hat gleich 50 FPS weniger als eine einzelne GTX. Klar, vielleicht ist in anderen Spielen der Abstand nicht so groß, aber 1. habe ich lange genug gewartet um nun Enttäuscht zu werden, 2. spiele ich clanbedingt fast nur BF2142, und 3. reicht wie es aussieht die Leistung der GTX unter DirectX10 noch weiter über der der HD2900XT hinaus, ausserdem weniger Stromverbrauch, kühler, leiser, und trotzdem gut übertaktbar. Ich war extra wegen dem R600 auf der Cebit (also unter anderem, war auch so cool dort), habe jetzt nun über 4 Monate auf die Karte gewartet. Habe mir für eine neue Graka 500 € zur Seite gelegt, wieso sollte ich jetzt nur 400 ausgeben für weniger Leistung?

Daher wenn die Treiber nicht sofortie Leistungsteigerungen hervorrufen, dann werde ich mir wieder eine nVidia holen.


chart_battlefield2142_1280_aa_af.png

Quelle : http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page11.html

Gruß, Tobias
 
An die Artikelverfasser:

Wie schaut's eigentlich bei den Tests mit dem neuem Treiber aus?
Wurden da die BQ verschlechtert? Oder gibt der Treiber wirklich eine bessere Performance?
Ich meine bei Oblivion kann man ja keine Leistungsverbesserung von wiet über 100% erreichen, wenn man nur ein bisschen cheatet, oder? Wird es da noch Aufklärung geben? Wann? Mit Vergleichsbildern?
 
@ NapkilleR: ich würde wetten, dass es bei deinem Beispiel (BF2142) noch große Leistungssprünge bei der hd2800 geben wird, das sie sogar schwierigkeiten hat eine x1950xtx zu schlagen
 
Zuletzt bearbeitet:
@#429: das wort cheaten haben doch nur paar kiddies in den raum geworfen...
abwarten auf einen richtigen treiber, ich glaube da kommt noch was!

so long
 
sdMAX schrieb:
Ich werde wohl so oder so auf die XTX warten

LOL, Ja warten können die mittlerweile gut, die ATI Jünger...
Erst haben sie 6 Monate umsonst auf ne Konkurrenz zur GTX gewartet. Und jetzt geht halt das Warten auf die XTX oder auf einen besseren Treiber los.
Die Hoffnung stirbt zuletzt...:D

Für erkennbare Mehrleistung hat der Verbraucher bisher immer einen höheren Stromverbrauch akzeptiert.
Aber mehr verbrauchen und gleichzeitig weniger leisten geht gar nicht.
Die High End User mit den gut gekühlten Systemen und dicken Netzteilen werden die Karte ignorieren.
Bei kleinen und mittleren Systemen kommt zum Preis der Karte noch der Preis für ein stärkeres Netzteil hinzu.
Das Ding macht so einfach keinen Sinn.
 
Zuletzt bearbeitet:
Jap, das "Spitzenmodell" von ATI hat ja offenbar in vielen Kategorien Mühe, sich gegen meine heiß geliebte GTS 640MB durchzusetzen...Die hat sich ATi mit ihrer Preis-und Marketingstrategie jetzt wohl als direkte Konkurrenz ausgesucht...und geht teilweise dennoch baden, während alle Puristen mit richtig Asche weiterhin auf 1-2 GTX setzen werden.
 
Moin,
Mein Kollege hat gerade von einem Test auf der Englischen Seite von THG erzählt. Wenn ich das richtig verstanden habe braucht die Karte CPU´s mit Leistung ohne Ende. Auf Deutsch:
Ein 6600, 6700 oder x6000 ist zu schwach um die Karte zu befeuern. In dem Test soll
ein Quad mit 4 mal 3700Mhz eine 8800GTX (bei gleicher Vorraussetzung) locker geschlagen haben. Nagelt mich aber nicht drauf fest, da ich den Test nicht gelesen habe.
Wenn das aber wirklich so sein sollte, kommt die Karte wohl min. 2 Jahre zu früh.
 
Das kann gar nicht hinhauen, wenn man sich die Benchmarks anschaut. Das würde keinen Sinn ergeben. Auch wenn die Graka eine bessere CPU verlangen würde, wäre es völlig unlogisch, dass sie mit Qualitätseinstellungen gar keine Performance zeigt.
 
Lach des find ich echt witzig erst noch mal überarbeiten und dan sowas abliefern! AMD kann sicher nichts dafür die ati läute haben siein den sand gestezt ich möchte echt wissen wie mann sowas ausliefern kann Wat pro fps ist ja mal ganz mies allso des ist ja eher eine heizung! got sie dank habe ich eine GTX gekauft und eine sehr gute erwischt einfach nur geil der G80! ich hoffe der quad amd CPU kommt bald will den unbedingt haben mag intel einfach nicht genauso wenig ati! mal sehn was kommt und wie ati ihre teiber noch optiemiern! ein test mit dem 1 G80 treiber zum vergleich zum R600 wär noch geil gewesen dan sieht mann was mann noch durch optimirung erreicht! G80 1 Relase treiber VS ATI 1Relase Treiber!
 
Bin gerade auf der Arbeit. Werde mir den Test mal zu Hause raussuchen. Für mich ist das aber auch unlogisch, aber man weiss ja nie
 
Ich weiß nicht was ihr habt! die karte gibts ab 360€ und sie liegt von der leistung her über der 8800 GTS und unter der 8800 GTX.

Das P/L verhältnis stimmt also!

Gut der Stromverbrauch ist zu hoch und die Treiber sind der Witz, aber ATI hat auch bei der x1950 xtx einen höheren Stomverbrauch gehabt!
 
Copra eben nicht. wenn ich tokio hotel fan wäre, wäre mir die vergewaltigung der deutschen Sprache ja gar nicht aufgefallen. :>

Wenn du schon die Sammlung postet (was ich gut finde) hast du dann auch ein Fazit wie der CD test so im vergleich ist? oder hast du sie nicht alle gelesen?
 
Mustis schrieb:
Copra eben nicht. wenn ich tokio hotel fan wäre, wäre mir die vergewaltigung der deutschen Sprache ja gar nicht aufgefallen. :>

Wenn du schon die Sammlung postet (was ich gut finde) hast du dann auch ein Fazit wie der CD test so im vergleich ist? oder hast du sie nicht alle gelesen?

Was immer wundert mich Ich treffe nur M....

So stimmt das nicht. Wenn man neu in ein Land kommt, in eine Stadt, gibt es viele Dinge, die man lernen muss. Die Sprache gehört dazu. Ich spreche Englisch, Französisch, und verstehe Deutsch ganz gut. Ich habe mehrere Möglichkeiten, mich zu verständigen.

PS: Deutsch lerne ich jetzt noch intensiver,




SRRY AN ALLE !!!!!!!
 
Zuletzt bearbeitet:
Zurück
Oben