Test Test: ATi Radeon HD 2900 XT

oh je oh je, wirklich enttäuschend, was ati da fabriziert hat. erst die unendliche geschichte mit den treiberprobs und jetzt sowas, wird glaub ich langsam wirklich zeit auf nvidia umzusteigen...
 
Weis man den schon was über die HD2600er?
 
SilentConcept schrieb:
Weis man den schon was über die HD2600er?

Wenn man den Gerüchten glauben schenkt, dann ist die 2600 besser als die 8600.
Aber wir haben ja jetzt die Benches der 2900 gesehen und kann man jetzt noch den Gerüchten trauen?

Wie gesagt, nix genaues weiss man.

Bitte bis Ende Mai/Anfang Juni warten, dann wird der OEM-Markt beliefert und die ersten Benches werden geliefert.
 
Naja, bis dahin könnte ich mir auch eine 88GTS kaufen. Ich dachte die Karten kämen mit der 2900. Schade.
 
Schöner Test thx Computerbase,

Wenn man die News der letzen Tage über den R6xx gelesen hätte wüste man das die HD 2900 XT die Konkurenz zur 8800 GTS ist. Und da sag ich mal gibt es ein Unentschieden (im moment). Ich glaube aber trotzdem das bei den Technischen Daten der ATI Karte noch irrgendwo ein fehler im Treiber ist z.B. falsche Speicher und Resurcen verwaltung, lassen wir uns doch mal überraschen was da noch geht.

NV Bringt keine 8800 Ultra heraus wenn man dort weiß das man die ATI HD2900XT mit einer GTS in Schach halten kann.

Denn gab es nicht vorher Bilder von einer Überdemensionalen Graka mit Beschmarks die die GF 8xxx weg geschossen hat. Hatte NV nicht 2 Wochen nach den (inofiziellen) Test Plötzlich eine 8800 Ultra angekündigt. Tauchte doch plötzlich eine Ebay Auktion auf mit einem R600 der laut dem Verkäufer viel schneller sei als eine 8800 GTX?

Hatte ATI nicht vor ca. 2- 3 Wochen gesagt das die High End Graka HD 2900XTX auf das 3 Quartal verschoben wurde wegen liefer Problemen von GDDR 4 Speicher.

NV weiß das und ist der Gewinner der Stunde hat man doch den R600 geschlagen (GTX & Ultra).

So glaube ich wird die HD 2900 XT noch GTX niveau erreichen (durch Treiber) und zum Preis vom 369 Euro ist das meine nächste Graka. Da sie schneller als GTS ist und "langsamer" als GTX also genau dazwischen.

Seit gespannt auf das 3 Quartal 07 und auf die HD 2900 XTX und auf eine neue Runde NV vs. ATi. Und jede menge dikusionen wer die bessere Karte hat z.Z. hat die schnellere! NV

Für mich hat Ati schon jetzt die bessere Karte (wenn man das Potenzial ausnütz)
 
@Ebula85 & ww2, wo bleiben denn die Tränen :) Echt rührend was alles geschrieben wird und vermutet wird. Fakt ist, zu Laut, zu Stromhungrig, zu Schwach :) Preislich noch unaktraktiv. Aber warten wir es ab, vielleicht liegt es ja wirklich an den Treibern. Aber wie wollen die den Stromraub reduzieren?

Mfg Selflex
 
Selflex schrieb:
@Ebula85 & ww2, wo bleiben denn die Tränen :) Echt rührend was alles geschrieben wird und vermutet wird. Fakt ist, zu Laut, zu Stromhungrig, zu Schwach :) Preislich noch unaktraktiv. Aber warten wir es ab, vielleicht liegt es ja wirklich an den Treibern. Aber wie wollen die den Stromraub reduzieren?

Mfg Selflex

Ich bin auch von Ati maßlos enttäuscht...Absolute Frechheit was die sich geleistet haben und noch frecher der mangelnde Treibersupport. Wenn die nur auf ausreichend Chips gewartet haben, was hat die daran gehindert die Treiber ordentlich zu programmierten.
Aber zum Stromhunger, mal ehrlich, wer sich ne 8800GTS/GTX holt sollte nicht über Stromhunger meckern. Leute die sich sowas holen, haben ihre Recher nicht 24/7 laufen. Sie holen sich solche Karten zum zoggen und dazu ein Beispiel:
Im Desktopberieb ist der Unterschied kaum erwähnenswert. Unter Last verbraucht die 2900 87Watt als die GTS (hat aber evtl die Leistung einer GTX unter Games, man warte die neuen Treiber ab). Also, mal angenommen derjenige spielt zwei Stunden am Tag, das sind 730 Stunden im Jahr, also 730*87= 63510 Watt Überverbrauch...Das sind 63,5 KW mehr im Jahr. Man nehme nen Standardtarif bei DEW: 63,7 KW*0,18€ = 12€ Im Jahr mehr an Stromkosten so im Schnitt. Wer richtig viel zockt, bei dem sind die Stromkosten eh ne Nebensache und für die ganz sparsamen kommt nicht mal ne GTS in Frage. Sooooo tragisch ist das ganze nun auch wieder nicht, dass alle gleich losschreiben....Aber mit gerade mal 19 Mio Transistoren mehr 87Watt Überverbraucht zeugt nicht gerade von Qualität oder gar Effizienz. Ati hat sich ne große Frechheit erlaubt! :(

@Ebula85: Wenn Ati wirklich keine Treiberlösung herzaubert, wäre ein Kauf der 2900XT eher zu bedauern, denn die Qualität der Karte ist unter aller Sau, zudem unterstützt man dann den Mist, den man bei Ati irgendwie nicht wegkriegt, damit meine ich Verbraucht, laute Lüfter usw. Wobei ich nicht verstehe, warum die Grafikhersteller nicht eigene Kühler verbauen :freak:
Wenn die aber noch ne fettere Karte rausbringen, dann kann man davon ausgehen, dass die an die 400 Watt Verbrauch kommen wird und das ist schon pervers für das bisschen Mehrleistung :(
 
Zuletzt bearbeitet:
ausserdem bei anderen benches sites schneidet die karte viel besser ab... ?

so long
 
Wie können sich die Messwerte und -ergebnisse zweier Redaktionen so heftig unterscheiden?

Kleinere Messunterschiede sind immer drin, aber bei technic3d schneidet die Karte eigentlich sehr gut ab und bricht auch nicht unter AntiAliasing ein. Ganz im Gegensatz zu Computerbase, wo die Karte auf halber Strecke liegen bleibt.

Wie kommts zu sowas?
 
Weil technic3d.com es so wollte. kannst du mit sicherheit sagen, dass sie auch wirklich antialiasing an hatten beim test?

Traue keiner Statistik oder messreihe die du nicht selber gefälscht hast. ;)
 
ehrlich gesagt ich weiss es auch nicht *hehe* sehr suspekt...
so ein ergebnis hätten sich wohl alle erhofft/gewünscht...

hat keiner so eine karte und kann mal einen benchmark anwerfen?

so long
 
Mustis schrieb:
Weil technic3d.com es so wollte. kannst du mit sicherheit sagen, dass sie auch wirklich antialiasing an hatten beim test?

Traue keiner Statistik oder messreihe die du nicht selber gefälscht hast. ;)

Aha....und wieso sollte die von CB die richitge sein? :D
 
Jungs wirft mal ein Blick auf den Prozessor der bei technic3d benutzt wurde. Das ist der alte Pentium noch...sie sollten mal das gleiche mit einem Core2Duo machen ;)
 
Schwabi ich hab ja nicht gesagt das die von der cb besser oder richtiger sind. ich hab damit lediglich hingewiesen, dass jeder für sich entscheiden muss, welcher messreihe er mehr vertraut. weil schlußendlic musst du demjenigen vertrauen, da du es selber nicht nachprüfen kannst, ob dass was da steht so auch wirklich gemacht wurde.


ich persönlich trauer der cb mehr als technic3d. das heisst aber nicht zwangsäufig, dass es der richtige ist.

ist ein arg philosophisches problem über realität und wie man sie wahrnimmt. Matrix hat es auf eine ähnlich weise behandelt. denk mal drüber nach. ;)
 
jo, der Prozessor macht vieles aus, aber das auch nur wenn die kleine Auflösungen fahren.
Bei hohen Auflösungen sind meistens die Karten die Limitieren.

ATI/AMD hat einen fehler gemacht, hätten Sie Ihren Sprössling vor NVIDIA dem G80 gelauncht, wären die Karten viel besser an den mann gekommen. Aber so :)

Mfg Selflex
 
Zurück
Oben