News ATi Radeon HD 2900 XT: Treibervergleich

Komischerweise finde ich bei den ATI-Spamern meisten den Begriff "nVidia" und "8800" in ihrer Signatur. Was das wohl zu bedeuten hat? Wie man in den Benchmarks gesehen hat, kann sich die Leistung der GraKa DRASTISCH ändern. Vielen Leuten ist die Bedeutung eines korrekten Treibers nicht klar.

Das ist noch ein Pre-Alpha Treiber. Der hat noch nicht einmal BETA Status. Erwartet ihr mit so einem Treiber neue Leistungsrekorde? Wohl eher nicht. Wäre das beim Release der nVidia Grafikkarte so, hättet ihr alle die Grafikkarte in SChutz genommen. Schneidet aber das Konkurrenzprodukt schlecht ab, MUSS es man ja fast schon schlecht bewerten. Wo bleibt da die Schadenfreude?

Und sagt mir nicht, dass nVidia in der Vergangenheit nicht "geschummelt" hat. Wie war das noch einmal bei der 7800er Serie? Gibt es da nicht auch noch einen netten Artikel auf 3DC?

Um eines klar zu stellen: Ich bin WEDER für nVidia NOCH für ATI. Ich stehe diesen beiden Herstellern neutral gegenüber, würde es aber sehr schade finden, wenn ATI/AMD nicht bald aus der Krise herauskommen würde.
 
Wenn ich das geistige Niveau an den Ergüssen von einigen postenden Usern hier messe, ergibt das nicht einmal Kindergartenniveau. Bemerkungen wie Dummschwätzer, Fanboy, du laberst nur Müll, troll dich weg usw. lassen ja tief blicken. Abgesehen davon habe ich mir inzwischen auch eine Meinung über AMD/ATIs neues Produkt gebildet.
Meiner Meinung nach hat die 2900 XT einen zu hohen Stromverbrauch und eine zu laute Kühlung im Vergleich zu einer 8800GTS, dazu kommt der höhere Preis. Ich glaube auch nicht, dass man diese Probleme nur mit Treiberupdates in den Griff bekommen kann. Ob die Treiber in einem Vierteljahr vielleicht brauchbar sind, ist mir in dem Fall egal. Für mich ist entscheidend, welches Produkt zum Kaufzeitpunkt verfügbar ist, und wie es arbeitet. Und mir ist auch egal, ob die Chips von NVidia oder AMD/ATI sind. Ich kaufe das Produkt mit dem für mich annehmbaren Preisleistungsverhältnis.
 
net schlecht von der Leistung her

mit anisotropic filter verliert 2900xt aber zuviel Leistung :(
teilweise 50 - 60 %
 
alles in allem ist das meiner meinung nach äusserst peinlich! vor allem wenn man zuvor noch sagt es liege am treiber...
 
Also ich persönlich bin enttäuscht von ATI. Da bringen sie ihr neues Schlachtschiff raus ohne optimierte Treiber.

Stelle mir gerade vor, kaufe mir ein neues Auto und der Motor läuft sowas von unrund und die Leistung ist nicht da wie angegeben und der Spritverbrauch ist gleichzeitig auch noch hoch / höher. Dann wird dann xmal das Steuergerät für die Kennfeldsteuerung mit neuer Software bespielt, bis es dann mal geht oder wie!?

Finde sowas eine sch... Marktstratgie, etwas rauszubringen was nicht die optimierte Leistung hat und einen hohen Stromverbrauch bei gleichzeitiger Minderleistung im Gegensatz zu den aktuellen Nvidias.

Das einzige was wohl zum Vorteil sein wird, der Preiskampf rollt wieder an.

Gruss
 
schummeln scheint in mode zu kommen bei ati. man merkt dass sie von amd übernommen wurden .. obwohl sowas ja nix neues ist (siehe radeon 8500 vor einigen jahren - ebenfalls speziell angepasste treiber zulasten der bildqualität etc.)

schade eigentlich, man sollte doch wieder mit fakten punkten und nicht mit tricks - auch wenn da viele naive drauf reinfallen wie man immer wieder sieht :/
 
Manche Leute sind echt so ....... :freak:

schummeln scheint in mode zu kommen bei ati. man merkt dass sie von amd übernommen wurden .. obwohl sowas ja nix neues ist (siehe radeon 8500 vor einigen jahren - ebenfalls speziell angepasste treiber zulasten der bildqualität etc.)
Radeon 8500 war 2001, also vor 6 Jahren. Und ja da waren die Treiber grottig bis zum geht nicht mehr, ich hatte selber eine, aber nur ATi unterstellen zu wollen das sie cheaten bzw. gecheatet haben zeugt von Dummheit oder Unwissenheit. Schließlich war es nVidia die richtig dreist bei den 3D-Mark Ergebnissen gecheatet haben, kann man sogar bei Wiki nachlesen.

Und was willst du damit sagen das man es merkt da sie von AMD übernommen worden? Wo cheatet den AMD das dies deine Aussage auch nur annähernd begründen würde?

In diesem Thread stehen so viele behauptungen drin die nicht stimmen, ist echt lächerlich. In euren kleinen Clan-foren und Co. könnt ihr ja solche Gerüchte in die Welt setzen aber in so nem riesigen Forum müsst ihr doch damit rechnen das ihr damit auf die Schnauze fällt.

Ich bin wie viele hier kein Fan der neuen HD 2900 XT Serie aber trotzdem gibt das keinem das Recht unwahrheiten zu verbreiten, es gibt User die sich auch informieren wollen, die lesen das und glauben das auch noch, eigentlich könnte man bei einigen Aussagen sogar von Rufschädigung sprechen.

@HereticNovalis
Wenn du es jetzt noch nicht verstanden hast, hier ein Beispiel einer Behauptung die man einfach so in den Raum wirft:

HereticNovalis hat nen kleinen und seine Mutter kann nicht kochen! ;)
 
hier schaut mal, nach hardwareluxx...:

"Die Lautstärke des Lüfters reguliert ATI angenehm. Im Idle-Betrieb ist die Karte aus einem normalen System kaum heraus zu hören."

und entsprechend im fazit:

"Positive Punkte ATI Radeon HD X2900 XT:
leise Kühlung"

eigentlich kann an ihrer karte ja nix anderes gewesen sein als an all den anderen getesteten.....vielleicht glück? oder taub? hab jetzt auf die schnelle keine dba zahlen gesehen....

mfg maxpain
 
hier schaut mal nach chip.de:

Es gibt sogar Tester, die die Karte empfehlen. Ber deren Tests hat sie auch die GTS (wahrer Gegner) locker im Griff! http://www.chip.de/artikel/c1_artikel_26418453.html

Und 12 Watt mehr Verbrauch als ne GTX - ist ja echt der Wahnsinn. Ich würde sagen, alle die ne GTX kaufen und dann über den Stromverbrauch der 2900 XT murren, sind lächerlich!

MfG
 
Ich habe den Bericht durchgelesen, aber wo schummelt denn ATI ??
 
suessi22 schrieb:
hier schaut mal nach chip.de:

Es gibt sogar Tester, die die Karte empfehlen. Ber deren Tests hat sie auch die GTS (wahrer Gegner) locker im Griff! http://www.chip.de/artikel/c1_artikel_26418453.html

Und 12 Watt mehr Verbrauch als ne GTX - ist ja echt der Wahnsinn. Ich würde sagen, alle die ne GTX kaufen und dann über den Stromverbrauch der 2900 XT murren, sind lächerlich!

MfG

Rofl......Chip? , Das Boulevardblatt im Presse-Sektor PC...........vergleichbar mit BIld......man muss sich nur paar andere "Tests" bei denen anschauen, absoluter Schrott.
Die haben keine wirkliche Ahnung und kratzen nur an der Oberfläche herum.
Da ist ein Userbericht oftmals mehr wert!
 
ALso ich hätte auch mehr von ATI erwartet, bin bissle enttäuscht. Aber ich habe imo hier den EIndruck, dass sich alle Kritiker auf den CBase-Test stützen ohne andere Test verglichen zu haben.

Insgesamt bietet die ATI Karte im Vergleich zur GTX keinen großen Kaufgrund. Trotzdem zeigen auch andere Hardwareseiten bei ihren Tests, dass die Karte nicht schlecht ist. Die Feinoptimierung muss in den nächsten Wochen seitens AMD Früchte tragen, ansonsten haben die einfach Mist gebaut.

Wie gesagt, die Karte kaufe ich mir auch nicht, ist einfach für 6 Monate Entwicklung zu wenig passiert. Der Preis geht aber mit 350€ im Schnitt in Ordnung...

..abwarten und Tee trinken.
 
10tacle schrieb:


Schön wenigstens von 20 posts mal wieder einen zu lesen der Hand und Fuß hat
Ich komm mir vor wie in einem Entwicklungsland in dem Propaganda ohne Substanz mehr Wirkung auf die Leute zeigt als irgend etwas anderes.

Bin dafür ein HW Forum zu erschaffen, das Neuanmeldern erstmal 20 fragen stellt bevor sie Registriert werden
Bei potentiellem Gehirnschwund auf Berlin DeutschRap Niveau wird der Zugang verweigert
 
@pookpook

das mit "die 8800GTS ist billiger und mit OC fast genau so schnell" gilt nicht, weil die Tests gezeigt haben, dass man die 2900 genauso gut, wenn nicht sogar noch besser, übertakten kann.

Gorgul geht zurück zum Heise und Golem Forum und troll da weiter!!
 
Klar...nur der test von CB zählt!

Komischerweise schneidet die karte bei sehr vielen anderen tests besser ab als hier, auch beim Stromverbrauch! ;)

aber..es zählt nur CB
 
Lol schaut mal bei 3Dcenter-Forum vorbei............xD:freak:

Der Nebelbug bei CS:S und damit auch höchstwahrscheinlich in fast allen games mit Source-Engine tauch auch bei der R600 auf, und nur viel schlimmer:eek::lol:.......

R600 ist ein einziger Bug...........mehr kann man dazu nicht sagen.
 
@Undergroundking
sag mal raffst du es nicht? Überprüf deine Links doch bevor du sie postest. Sie funktionieren noch immer nicht ;-)
 
Man könnte glauben, dass ATI/AMD mit dem Treiber versucht hat zu zeigen, dass nach Optimierung noch einiges an Performance drin steckt.

Nvidia hat in den letzten Jahren recht oft neue Treiber rausgebracht, die ihre Karten schneller haben aussehen lassen und sich diese Geschwindigkeit jedoch über Reduzierung von Qualität erkauft.

Da der Nachfolgetreiber wieder genauso langsam war, kann man hier nicht von schummeln reden imho. CB hätt ev. nicht so ein Theater darum machen sollen ("OMG 170 % schneller!"). Wir wissen alle, dass Treiber den Unterschied machen können. Ich warte lieber auf einen fertigen offiziellen Treiber und wenn der dann bei guter Qualität auch noch die GTS in Sachen Performance schlägt..., gut für ATI.

Selbst wenn die 2900xt an die GTS überholt, ist da noch immer der wesentlich höhere Stromverbrauch/Preis und sie bleibt auch lauter als eine GTX.

Im Grossen und Ganzen ist es für mich trotzdem enttäuschend, dass ein Produkt 6 Monate nach der Konkurrenz auf den Markt kommt und dann in allen Belangen schlechter ist. Hätt mir die GTX doch schon zu Weihnachten kaufen sollen...

Ich wart jetzt nur noch, dass die GTX-Preise etwas fallen und bei ca. 450 kauf ich mir wohl eine, da sie vorallem bei sehr hohen Auflösungen gute Performance bietet und ich spiel gern auf 1920 x 1200 auf meinem 24-Zoll-TFT.

WoW dropt mit BC schon zeitweise unter 30 fps mit 6x-AA also wirds für mich Zeit :)
Ausserdem hat sich mein Bruder "Stalker" besorgt, das kann ich dann gleich ausprobieren. Runtergehen auf 1280er Auflösung is feige :evillol: 1650er sollte das Minimum darstellen (was bleibt ist die Hoffnung :D).

Noch immer hoffe ich auf AMD bezüglich einer Lösung der Taktung der Grafikkarten im Idle-Mode, damit die Teile da nicht mehr soviel Energie verbraten. Hab gelesen, dass NV an einem Treiber diesbezüglich arbeitet, aber AMD hat da schon Erfahrung durch die CPU´s und sollte eigentlich schnell mit einer adequaten Lösung kommen können.
 
Zuletzt bearbeitet:
schwabi schrieb:
Komischerweise schneidet die karte bei sehr vielen anderen tests besser ab als hier, auch beim Stromverbrauch! ;)
aber..es zählt nur CB
Schdimmt. Nach dem Lesen von verschiedenen Tests stellt sich Verunsicherung ein...

Sogar tomshardware.com und tomshardware.de haben unterschiedliche Ergebnisse :rolleyes:

Bei manchen Tests schneidet die 2900xt garnicht so schlecht ab, bei anderen immens schlecht.
 
Cheater Treiber??

Ähm ja erst Hirn einschalten und anschließend versuchen auch mal mehr als 2% davon zu benutzen.
Klar dürfte sein...die Treiber sind im Alpha Stadium, das heisst die Karte kann einfach nich mehr Leistung bringen wenn die Treiber scheiße sind...das ist übrigens mit allen so, egal ob nvidia oder ATI oder lasst es ne Soundkarte sein, EGAL... so und irgendwann wird es Final Treiber geben die, die Karte in jeder hinsicht ordentlich auslasten, deswegen versteh ich nicht was hier einige glauben zu wissen, "Cheater Treiber" sind bei mir Treiber die mehr FPS aus der Karte rausholen, dafür aber die Bildquali verschlechtern, das sind aber bei Gott nicht mehr als 2-3% an Leistung, und wenn hier ne Karte die Brand Neu ist und noch mit Alpha oder Beta Treibern läuft und auf einmal mehr als 150% an Leistung gewinnt, durch neue Treiber was hat das dann mit "cheaten" zutun?? ...wohl viel mehr die weiterentwicklung des Treibers auf verschiedene Bereiche!
So und Nvidia ist ja wohl das beste Beispiel für beschissene Grafikkarten, immer schön alles als erster haben wollen (PS 3.0 ect.) und dann sind die Karten so derb langsam das es keinen Sinn macht sie dafür ein zusetzen, und über Treiber brauchen sich die ganzen nvidia Kiddis hier auch ne zu beschweren, überlege man mal wieviele nvidia treiber im Monat rauskommen und wieviele ATI rausbrint.
Eins ist fakt und das war schon immer so, sobald es für die X2900XT 100% funktionierende Treiber gibt, kann man die nvidia nur noch auf den 2 und darauf folgenden Plätzen sehen.
Und ich will jetz kein geflame bla bla bla beweise ect. kuckt euch einfach benches der vergangen heit an wie GeForce 7 gegen X1000 Series oder Geforce 6 vs X800 Series...und bitte kommt mir ne mit DOOM III ect. den diese Games sind auf Nvidia Karten optimiert, nehmt Games die keine besondere Opimierung haben, und ihr werdet sehen.
Das einzige Plus was ich nvidia geben muss ist, das sie extrem an der Bildqauli gearbeitet haben aber das kann meiner Meinung nach nicht alles sein.
Achja eins noch, seit ihr wirklich der Meinung das es ein 384-Bit Interface in hohen Auflösungen mit AA + AF gegen ein 512-Bit interface anstinken kann??? ..das wäre wie ein Porsche und ein Bugatti, klar der Porsche is schnell wird aber nie an einen Bugatti rankommen.
 
Zurück
Oben