Test Test: ATi Radeon HD 2900 XT

das ist ja wirklich bitter.... nach der C2D Schlappe jetzt sowas, wenn AMD mit dem K10 nicht ein Wunderprodukt auf den Markt zaubert, dann sehe ich schwarz. Naja, wenigstens werden die nicht Pleite gehen, im unteren Preissegment ist ATI mit der x1950pro Nvidia haushoch überlegen ^^
Ich lehne mich zurück und warte was passiert....
 
Die Aussage, dass die 2900XT auf die GTS 640 zielt finde ich ist Schwachsinn.
Warum sollt ATI den Wunsch gehabt haben mit ihrer aller neuesten Entwicklung auf das drittschnellste Produkt der Konkurrenz zu zielen? :freak:
Mercedes entwickelt ja auch nicht die neue super duper S-Klasse und sagt dann, dass wäre der neue 3er BMW Konkurrent. lol
Habe das Gefühl, dass sie sich dazu entschlossen haben die PR-Aussagen etwas zu ändern nachdem sie die Laborwerte vor sich hatten...

Ich hätte es ATI echt gewünscht ein top Produkt abuzuliefern.
Doch nach diesen Tests mache ich mir echt Sorgen um AMD/ATI.

Glaube auch kaum, dass da eine XTX noch was umdrehen kann.
Nvidia hat ja wohl kaum aufgehört weiter zu entwickeln. ;)

Hoffen wir auf die 2950XT/XTX. :p
 
Zuletzt bearbeitet:
liox schrieb:
Also mich wunderts warum sich hier alle über die 30 Watt mehr an Leistung aufregen ... Kein Sorge, die 30 Watt werdet ihr nicht sonderlich auf der Stromrechnung merken.

nicht..rechne doch mal nach..

365 Tage x 24Stunden x 30Watt = rund 263KW

263 x 19€Ct = Rund 50€

Mehr !!! Nur für die GK !!!

Ich finde das ist schon VIEL !

Aber die NVs brauch auch viel zu viel Strom...echt krank...High end CPUs brauche bei nix tun nur 15% des Last Stromes ..bei High End GPUs geht es anscheinend nicht..
 
Zuletzt bearbeitet:
naja...kommt AMD, kommt problem....zufälliger zufall?:rolleyes:

Das ist ein witz..die karte ist so schnell wie mein X1950XTX, hier ist einiges schief gelaufen...ich glaube aber nicht, dass etwas an der Hardware schiefgelaufen ist!

Wenn ATi es nicht schafft Durchgehend 10% schneller zu sein als ne 8800GTS, dann wird der R600 nur in den Regalen zu sehen sein.
 
@XeroNXS

Warum? Weil die HD 2900 XT nun mal gegen die GTS antritt, da war von der Ultra noch keine Rede, als das bekannt wurde. Daher hatte man auf die zweitschnellste es abgesehen. Die in 65nm gefertigte HD 2900 XTX mit DDR4 soll dann gegen die GTX antreten, ob und wie dass sehen wir dann wohl erst im 3. Quartal 2007. Zusammengefasst habe ich das mal in Post #75, da vergleiche ich mal ein paar Werte mit der direkten Konkurrenz, namentlich 8800 GTS.
 
Diese Karte ist für meinen Geschmack ein Debakel. Da lässt man sich schon solange Zeit, rührt kräftig die Trommel und alles was dabei rauskommt ist eine höchst mittelmäßige Karte die in Qualitätssettings massiv einbricht. Wer soll diese Karte kaufen? Mich interessiert auch nicht der günstige Preis.

Der X2900XT ist angetreten um den 8800GTS zu schlagen. Ist aber mächtig danebengegangen der Versuch. Ich habe lange mit meiner X1900XT vorlieb genommen und keine 8800 gekauft, da der R600 ja so toll sein sollte.

Ist er aber nicht. Meine nächste Graka wird eine 8800 GTX sein.

In dem Sinne, Gute Nacht ATI(AMD).

PS: Bei diesen Benchmarkwerten erhoffe ich mir von der 2900XTX auch keine Offenbarung. Soviel macht der GDDR4-Speicher im Leben nicht aus.
 
also ich hab mit einem noch schlechteren Ergebnis gerechnet :)
Einziges Manko imo ist der Stromverbrauch, aber da war Ati in der letzten Generation auch nicht besser.
Die anderen Probleme sind bestimmt auf Treiberprobleme zurückzuführen, sonst wären die einbrüche mit AA/AF bzw nicht erklärbar, naja und nen Lüfter der zwischendurch laut aufdreht und dann wieder still wird, das ist ja erst recht klar eine reine Software steuerung

Und wenn PC Welt nen 4 Stunden neueren Treiber am Tage des Launchs verwendet dann sollte man echt nen Lesitungsschub von 100% erwarten :rolleyes:

Also Müll seh ich keinen ist halt keine Überkarte.
Finds aber geil zu sehen wie es Leute nur in erwähnung ziehen, die KArte mit einer 650€-700€ teuren Karte von Nvidia zu vergleichen.
Bei 20 Watt mehr schreien sie alle laut auf, dabei haben 90% derjenigen noch nie ne Stromrechnung von innen gesehen :D, aber die hälfte des Preises zu einer Ultra kann man aber getrost ignorieren.:freak:

Ach ja Kind müßte man wieder sein.
 
Zuletzt bearbeitet:
Die 2900XT ist angetreten, um die GTS zu schlagen. Der Preis der bekannt wurde, machte dies mehr als deutlich!
 
Uiuiuiui, das is ne Bombe.

Keine wirklich herausragende Performance. Ein neues Flaggschiff hätte wenigstens an die GTX rankommen müssen, um da nach einem halben Jahr Rückstand Käufer doch noch zur Anlage zu bewegen.

Jetzt ist sie mit AA/AF-Einstellungen auch noch deutlich langsamer als eine 8800GTS, zieht unter Last mehr als 90 Watt mehr aus der Büchse und kostet auch noch wahrscheinlich um die 50€ mehr (Marktpreis dürfte wohl unter 399€ liegen).

Wenn bei ATI die Mainstreamkarten auch noch n Griff ins Klo sind, haben sie ein echtes Problem.
 
Nur einen Hardwarehersteller zu haben kann auch Vorteile mit sich bringen: die Entwicklung der Hardware geht langsamer voran, was zur Folge hätte daß die Komponenten länger aktuell sind. Die Programmierer können so nicht mehr ineffiziente Programmierung dadurch wettmachen, daß sie die Zeit bis zur nächsten CPU, GPU oder sonstiges einfach aussitzen. Kostet die CPU halt das doppelte. Na und? Das wird eh schon allein dadurch wettgemacht, daß ich deutlich seltener ein neues Board plus RAMs brauche.

Auf der anderen Seite wäre ohne die Konkurrenz die Hardware nicht da, wo sie heute ist. Dennoch fände ich es angemessen, wenn die nächsten 2 oder 3 Jahre die Hardwareentwickler ihre Ressourcen nicht in immer schnellere Siliziummonster stecken, sondern an der "Leistung pro Watt" Schraube drehen. Es wäre durchaus angebracht, wenn eine Karte wie die 2900XT, oder auch die 8800GTX ihre volle Leistung auch bei nur 80W oder noch weniger entfalten könnten. Die hieraus entstandenen Mechanismen zum Stromsparen können dann in folgenden Hardwaregenerationen weiterverwendet und weiterentwickelt werden.
 
Berserkervmax schrieb:
365 Tage x 24Stunden x 30Watt = rund 263KW
Ein wenig unrealistisch das Beispiel. Ich kenne Niemanden, bei dem der Rechner das ganze Jahr über 24h am Tag unter Vollast läuft. Naja ein WoW-Süchtiger vielleicht...aber dessen Problem dürfte wohl weniger der Stromverbrauch seines Rechners sein.
 
Zunächst einmal ein grosses Lob an ComputerBase für diesen ausführlichen Artikel - wir alle haben ihn ja bereits mit grosser Spannung erwartet :)

Die Fakten über den R600 hinterlassen bei mir einen zwiespältigen Geschmack. Der Strombedarf ist erwartungsgemäss (zu) hoch, was sich aber gegebenenfalls noch verschmerzen lässt, zumal die Temperaturen und Kühlung in Ordnung scheinen.

Der Leistungsabfall mit AA/AF überrascht mich allerdings, war ich das doch bisher eher von nVidia gewohnt - mit G80 und R600 tauschen die beiden Hersteller hier offenbar die Rollen. Das bessere AF von nVidia und das so gut wie gleichwertige AA sind auch nicht als Vorteile zu verbuchen.

Liebe Grüsse,
Winterday
 
@ Wiseguy

das siehst du als Vorteil ?!
Das erklär dann mal bitte de andren wenn ab jetzt die Nvidia Karten weniger Strom ziehen, langsamer sind, und Crysis erst mitte 2008 kommt.
Da werden sich alle freuen :D :D
Mit deiner Meinung bildest du die Minderheit

Den Leuten die hier am lautesten bellen, und in der Überzahl sind, gehts darum dass es die stärkste Karte, Spiele noch schneller erscheinen, und noch geiler aussehen
Ach ja, und wenn der Stromverbrauch gesenkt wird wär auch noch "ganz nett".
Das Silent Argument zählt da mehr, weil man ja mitbekommen will wenn Papi im Erdgeschoß den Brief der Stromrechnung öffnet.
 
Zuletzt bearbeitet:
@Tobi86: Ne, is klar :lol: :evillol:
 
EINE KATASTRPOHE die Karte.

1: Der Stromverbrauch, unter aller KANONE

2: Wenn ich schon 400 bis 500€ ausgebe, dann ist bei 1280 x1024 aa und af ein MUST HAVE, das kann man sich aber dank der schlechten Performance von der BACKE SCHMIEREN, da kann jeder bei seiner x1950xtx bleiben, da ist man beinahe genauso gut bedient.

3: Wer ne 8800GTX sein eigen nennt, der schmuzelt jetzt wohl leicht^^

4: Naja Nvidia hat ja auch mit der Fx 5800/5900 Mist herbeigezaubert, wird wohl nicht der Weltuntergang sein für AMD/ATI
 
Zurück
Oben