News Radeon HD 2900 XT: 50 Euro Nachlass in 6 Tagen

Falls es noch keiner gemerkt hat, die Karten gehen weg wie nix, soviel zum thema Reinfall, wobei man sagen, muss dass die käufer nicht allzugut informiert sind, aber mit dem neuen treiber wird die gts ganz schön alt aussehen BIG PROMISE. Und es in normal, dass ein neues Produkt an Anfang etwas im Preis nachgibt, bereits am zweiten Tag konnte man sie für 360 € bekommen.
 
Ich würde mir diese Karte trotzdem nicht kaufen. Dx10 brauche ich noch nicht (es gibt noch keine Spiele und wenn diese Titel am Markt sind - ist schon die nächste GraKa Generation erhältlich). Außerdem kommt mir keine GraKa in den Rechner, die mehr als 70 Watt verbraucht. Es wäre wünschenswert, wenn viele Endverbraucher die neuen GraKa (HD2900 / 88GTS und 88GTX) nicht kaufen würden, damit ein Umdenken bei ATI und Nvidea einsetzt.
 
Mit ausgereiften Treibern wird die 2900 XT die 8800 GTS locker schlagen - sie kratzt ja auch jetzt schon in einigen Fällen an der GTX. Ich frage mich also woher die vielen Meinungen kommen, sie wär nicht konkurrenzfähig... mal brav abwarten. Vielleicht sollten diese jenigen sich einmal den 3DCenter-Test anstatt dessen von Computerbase durchlesen, der bereits mit aktuelleren Treibern durchgeführt wurde und auch deutlich bessere Benchmarks (und deren Interpretation) aufweist.

@ph!L: Guter Linuxtreiber-Support hat nichts mit DirectX10 zu tun, sondern mit OpenGL-Performance. Und vielen anderen Dingen. Wie man sieht, werden gute Treiber in diesem Bereich immer wichtiger, steigt doch deren Userbasis stetig.
 
Zuletzt bearbeitet:
Und noch was ganz anderes, Wieviel achten "wirklich" auf die Qualität in einem spiel wenn man vertieft ist???Es heit ja auch die 7800GTX u.s.w haben bessere Qualität als die X850 serie!! Ich hab mal 2 rechner an ein TFT angeschloßen und immer hin und her geschaltet,und das ergebnise waren wirklich nur lecherlich;) .Diese "Bessere Bild Qualiät " war so marginal wenn überhaupt vorhanden:freaky: .Oder sitzt einer von euch mit der Nasenspitze auf den Flüssigkristallen (sind ja weich) und schaut wärend dem spielen und gemezel (je nachspiel) und prallt dann "Ja ich hab das bessere Bild als die ATI/AMD Karten.??
 
Wenn das stimmt! *freak*

Lassen wir doch die gerüchte mal Kurz beiseite!^^ obwohl ich es mir schon vorstellen könnte!^^
 
@val9000

Die news ist vermutlich genauso echt wie all die letzten von fudzilla.
 
Schön, dass einige über den Verbrauch bei max. Last reden bei der 2900XT. Das die 8800er einen defekten idle- Modus haben und zwischen 50 bis 80W mehr Strom im 2D- Modus brauchen als die 2900XT wird perfekt ignoriert. :rolleyes:
 
@val9000

Sicherlich wäre es schön, wenn das Ergebnis so positiv ausfallen würde. Aber ich denke nicht das der Stromhunger derart zurückgeht und dabei ist es ja noch nicht mal das angestrebete Topmodell!
Aber wir werden sehen was daraus wird...

edit: @Forlorn

Das war mir neu! Wenn das stimmt werde ich mich wohl eher im Mainstreamsegment umsehen müssen...
 
Zuletzt bearbeitet:
Man wann kapiert ihr das ? Wenn AMD den ach so tollen R650 bringt, kommt Nvidia mit dem G90 und das wars dann wieder...ich hasse leute die immer mit AMD und ATI rumflamen. Kauft einfach das was besser ist und gut. Das wäre in diesem Fall Nvidia.
 
Zuletzt bearbeitet:
@Seppuku:

Wieso andere Werte ? Die Seiten zeigen bei Last auch einen höheren Verbrauch der HD 2900XT im vgl. zu 8800 GTX (Ultra) ? Was meinst du denn ?
 
Eben nicht bei Last sondern im idle.
Der Wert, der am nähsten an den von CB gemessenen Unterschied drankommt, ist der von 3DCenter. Da sind beide im idle gleich auf. Bei den anderen Seiten liegt sie teilweise deutlich unter der GTX und eben nicht darüber. Und in dem CB-Review übertift die HD 2900 XT sogar eine 8800 Ultra im Stromverbrauch (idle).
Dann relativiert sich die Leistungsaufnahme wieder. Wenn man unter Last mehr verbraucht aber unter Windows weniger, wird es unter dem Strich wohl ziemlich auf den gleichen Stromverbrauch rauslaufen. Ich glaube, dass bei den meisten öfters der der Computer im 2D als im 3D Modus läuft ;).
 
Forlorn,wen die 8800 Karten sogar mit einem defekt weniger im idle verbracuhen als sie ATI,muss die ATI ja der hinterletzte Müll sein...

Das ist totaler Quatsch.70-80 Watt mehr...

Seppuku,wer hat den jetzt recht,CB oder der Rest?Die haben ja alle gemessen,aber solche Abweichungen sind doch nicht normal.
 
Da ist auf Ars Technica auch ein find ich recht interessanter Artikel zum R600, der auch klärt, warum in den Treibern noch eine Menge Performancemöglichkeiten stecken.
 
@ R@z()R

Die Frage stelle ich mir auch gerade ;).
Im Moment steht es 4:1 für den geringeren Stromverbrauch. Man kann ja mal noch nach anderen Seiten suchen. Mal schauen, welches Resultat die dann bestätigen.
Wenn man die Differenz der Differenzwerte (also der Deltaverbrauchswerte zwischen XT und GTX) zwischen dem CB-Wert und dem niedrigsten Wert der HD 2900 XT nimmt, dann kommt man auf einen nicht zu verachtenden Unterschied von 39 Watt.
 
Wenn die Treiber überarbeitet sind ist diese Karte mit Sicherheit eine gute Alternative zur 8800gts.

Aber der 80nm Herstellungsprozess fordert trotzdem seinen Tribut in Form der Leistungsaufnahme!

@Volker: Mich würde auch ein erneuter Treibervergleich interessieren, wenn AMD/ATI diesen endlich im Griff hat!

So long
 
ums mal gelinde auszudrücken ,

Ich habs gewusst ;) die der r600 ist nicht konkurenzfähig ... ich habs auch schon mehrere male gesagt, schade eigentlich ...
 
@ TrammY

Dann hast du schon mehrere male etwas falsches gesagt...
Einfach mal die vorherigen Posts durchlesen :rolleyes:
Oder wenigstens mal seine Aussage auch begründen. Wenn man wenigstens bis zur 7. Klasse in der Schule gewesen ist, dann wüsste man, wie man Argumentiert...
 
Zurück
Oben