News ATi Radeon HD 2900 XT: Treibervergleich

Bin mal gespannt wie die Karte auf Vista laufen wird. Da sorgten ja schon die Treiber für meine 1950PRO für Bluescreens.
 
Zuletzt bearbeitet:
Kann nichtmal ein Mod alle ATi vs. nVidea Threads schließen? Einfach erbärmlich was hier in den letzten Wochen abgeht.

http://www.k-videogames.de/web/special/id,4325/s
http://www.k-videogames.de/web/special/id,4396/s

wiki schrieb:
Eine Diskussion sollte unabhängig vom Thema von gegenseitigem Respekt geprägt sein. Zu einem guten Diskussionsstil gehört es u. a., gegenteilige Argumente und Meinungen zuzulassen und genau zu prüfen, anstatt sie vorschnell zu verwerfen. Oftmals ist z. B. in der Politik zu beobachten, dass die Diskussionskultur von Aggression geprägt ist.
„Zwei Monologe, die sich gegenseitig immer und immer wieder störend unterbrechen, nennt man eine Diskussion.“ - Charles Tschopp

Ein guter Diskutant hört zu, lässt ausreden und ist konzentriert genug, um auf das vom Gegenüber Gesagte einzugehen und seine eigenen Argumente sachlich darzustellen. Ebenso sollte er den Diskussionspartner zu Wort kommen lassen. Auch Eigenschaften wie Gelassenheit und Höflichkeit können für beide Seiten von Vorteil sein.

Im günstigsten Fall steht am Ende einer Diskussion die Lösung eines Problems, ein für alle Beteiligten annehmbarer Kompromiss oder eine beidseitige Erkenntnis. Aber auch ohne dies ist eine Diskussion eine Möglichkeit den Standpunkt einer anderen Seite kennen zu lernen und von bisher unbekannten neuen Seiten zu erfahren.
 
Zuletzt bearbeitet:
Da muß man wohl doch nochmal seine Meinung zur HD 2900 XT ändern. So schlecht scheint die Karte mit dem richtigen Treiber wohl doch nicht zu sein, wie es die ersten Test vermuten ließen. Zumindest wenn es allgemein um die Leistung geht scheint doch noch erhebliches Potenzial in der Grafikkarte zu schlummern.
 
Ich möchte nur mal eine FRage einwerfenvor ca. 3 Monaten grasierte das Gerücht, das Nvidia einen neuen Supertreiber nach dem Start der AT HD 2900 XT herauskommt. Er sollte den Verbrauch senken und die Performance nochmals steigern...

Nun müssen wir mal schauen, was passiert, wenn der nächste Treiber von NV herauskommt.
 
Naja, ich könnte mir gut vorstellen das die Karte mit D3D10 wesentlich besser da steht...

In der C'T stand wie gesagt ähnliches... War ein 2 seitiger Bericht da haben die Spiele Performance getestet und auch mit dem D3D 10 Beta SDK tests gemacht und da war die Karte doppelt so schnell wie die 8800 GTS mit 640MB. Ich wäre also äußerst vorsichtig mit derartigen aussagen. Zudem glaube ich nicht dass, das was jetzt erschienen ist schon das ende der Fahnenstange ist. Warum stufen sie die Karte denn dann bitte gegen eine GTS ein?
Ich habe eher das gefühl die wollen nur mal nen bissel Muskeln spielen lassen und ein bisschen bluffen. Ich glaube nähmlich wenn die R600 in 65nm kommt im 3 oder 4. quartal 2007 können sie wesentlich mehr Leistung usw. aus den Karten holen.

Man sollte nicht vergessen es gibt 3 Faktoren bei dennen sie noch punkten können:

1.) Mit ausgereifteren Treibern (bisher sieht es so aus als könnte man noch mehr aus der Karte holen also lasst mal 1 Monant ins land ziehen)

2.) Werden sie Wahrscheinlich im 3. oder 4. quartal mit einer 65nm Version der Karte kommen die hat dann weniger leistungsaufnahme und bleibt kühler das eröffnet Potenzial

3. Werde ich das Gefühl nicht los das die Karte mehr das ziel hat auf D3D 10 Optimiert zu sein und nicht DX9 (sieht man auch am dem Release motto "A Perfect 10")

Fazit: Ich schätze mal die Karte hat mehr Zukunftspotential als die meisten hier denken...

Hovy
 
Undergroundking schrieb:
was treiber bewirken können, ich bau mal auf ati
November 2006 (8800 GTX 71 % schneller als 7900 GTX): https://www.computerbase.de/artikel/h...ting_qualitaet
Heute (8800 GTX 146 % schneller als 7900 GTX): https://www.computerbase.de/artikel/h...ting_qualitaet

das liegt vielleicht auch daran, dass seit november 2006 keine neuen xp-treiber mehr für die desktop-7900er-reihe rausgekommen sind - und dass finde ich ehrlich gesagt zum k....
:mad:
 
Ich glaube hier vergessen einige worum es in dem Markt geht. Es geht um Produktzyklen! Ein Hersteller kann nicht eine Kartengeneration entwickeln und dann im nächsten quartal gleich eine neue! Es ist sauteuer eine Fertigung auf eine neue Technik umzustellen! Der eigentliche Chip ist spottbillig herzustellen. Deswegen es geht gar nicht so stark darum die bessere Technik zu haben der Konkurrent kann immer besser sein. Wenn er mehr zeit hat. Die Kunst ist es die Zeit genau abzupassen und ein Produkt erst auf den Markt zu bringen wenn der Konkurrent seine neue Familie auf den Markt gebracht hat. Dann haut man erst seine neue Chipfamilie raus. Der Grund wenn ich meine neue Chipfamilie rausbringen dann weiß mein Konkurrent ja schon was ihn erwartet und kann dieses Wissen nutzen um seine einfach 2 Monate später mit noch mehr Performance rauszubringen mit der Folge das alle seine Karte kaufen werden, weil ja alle nur die beste kaufen wollen. Wenn ich ATI wäre würde ich jetzt warten was Nvidia macht möglichst erst wenn die ihr Topmodel auf den Markt bringen meins auf den markt bringen.

Deswegen würde ich sagen hat ATI genau richtig gehandelt die Karte jetzt zu bringen und sie gegendie GTS antreten zu lassen. Weil sie vielleicht schon genau wissen das Nvidia kurz vor Crisys ihre neue Karte rausbringen werden und dann kommt ATI mit ihrem R650 Chip auf 65nm, mehr Takt, _ihrer_ D3D 10 Optimierung und ausgereiften Treibern. Die Frage ist jetzt nur inwieweit Nvidia diesen Schritt vorherahnt.
 
Hat mal jemand bitte einen Link, wo AMD/ATI vielleicht selber Stellung zu den Grakas und Treibern nimmt ?
 
Was soll das denn bitte für ein Test sein?
Gerade bei AAA, TSSAA, MSAA und wie das alles heist ist ein Vergleich ohne objektive Beurteilung der Bildqualität NICHT MÖGLICH.

War doch schon immer so, wenn bei beim Aliasing getrickst wurde, daß die FPS in den Himmel schießen.
Was wurde Nvidia in der Vergangenheit dafür geprügelt.....
 
Zuletzt bearbeitet:
Die Karte hat natürlich noch Potenzial und wenn die Karte um 300 € kostet und ihre guten oc Eigenschaften ausspielt, kann sie vielleicht doch noch an der GTX kratzen. Die Karte wäre dann wohl der Hit.
 
Hovy schrieb:
Ich habe eher das gefühl die wollen nur mal nen bissel Muskeln spielen lassen und ein bisschen bluffen.

Aus Marketingsicht ist das Dummheit...der Imageschaden der 2900XT ist am ersten Tag nicht wieder gut zu machen...das will kein Hersteller...viel besser wäre es, wenn die XT von Anfang an ca. 10% bis 20% als die GTX oder gar ULTRA schneller gewesen wäre in den meisten Benchmarks...

Hovy schrieb:
Man sollte nicht vergessen es gibt 3 Faktoren bei dennen sie noch punkten können:

1.) Mit ausgereifteren Treibern (bisher sieht es so aus als könnte man noch mehr aus der Karte holen also lasst mal 1 Monant ins land ziehen)

2.) Werden sie Wahrscheinlich im 3. oder 4. quartal mit einer 65nm Version der Karte kommen die hat dann weniger leistungsaufnahme und bleibt kühler das eröffnet Potenzial

3. Werde ich das Gefühl nicht los das die Karte mehr das ziel hat auf D3D 10 Optimiert zu sein und nicht DX9 (sieht man auch am dem Release motto "A Perfect 10")

Fazit: Ich schätze mal die Karte hat mehr Zukunftspotential als die meisten hier denken...

Hovy

Kann schon sein, aber diese Fakten sind auch für nVidia zutreffend...

Was zählt, ist die gegenwärtige Leistung und diese sieht nun mal für AMD nicht so gut aus...es kann sein, dass die Performance erhöht werden kann, aber für die meisten Kunden zählt die momentane Leistung...es wird sich kaum ein Kunde finden, der ein Produkt kauft, dass erst wahrscheinlich in ca. 1 bis 3 Monaten die Leistung entfaltet...
 
Zuletzt bearbeitet:
ich bin insg. auch ein wenig enttäuscht, das bringt ati nach so langer zeit wieder etwas heraus und dann toppt das gute stück nicht mal an die konkurrenz, preis/leistung liegt auch hinten, bei den temperaturen freut sich auch der rest eines systems auf 365tage sommer und von silent kann man auch nicht gerade sprechen.
die karte ist nicht schlecht und wird nach treiber-änderungen auch noch mehr raus holen können, aber das was viele erhofft haben kann die karte nicht bieten.
angesichts das der preis so hoch ist, muß nvidia erst einmal nicht an den preisen ändern.:freak:
 
OK - gehen wir günstigstenfalls davon aus, dass die Karte Dank den neuen Treibern
wenigstens zur GTX aufschliessen kann - dann bleibt aber immer noch die Frage, mit
welch einem Preis sich ATI diese Leistung erkauft: Enorme Verlustleistung, sehr warmer
Grafikchip, laute - leider nicht verbesserte Lüftersteuerung. Ich kann mir nur schwer vorstellen, dass sich dies bei der XTX grundlegend ändern wird, es sei denn, man krempelt
gerade den R600 Chip um, was zumindest die enttäuschende Verzögerung
erklären würde. Alles in allem präsentiert ATI hier ein zwiespältiges, fast schon unausge-
gorenes Produkt, dass mich wieder mehr in Richtung Nvidia schielen lässt.
 
Zuletzt bearbeitet:
@Undergroundking,

und die welt interessiert sich nicht für die omakarte r600, sie ist keine konkurrenz! und wenn das treibergelaber kommt, da hat nvidia auch noch keinen wirklichen treiber für die g80.

ati hat das problem da sie jede generation verschieben sind sie extrem zurückgefallen sind. der r600 ist rein theoretisch die konkurrenz zum g90, da c.a. alle 6 - 9 monate eine neue grakageneration kommt und nvidia den g80 schon 6 monate draußen hat ist der r600 zug schon lange abgefahren.
 
Ich weis nicht was ihr habt.
Alle die hier schreiben das Ati mit den Treibern noch nach vorne kommt, das müssen dann schon wirklich eingefleischte Fans sein.

Leider umsonst. Ati hatte sehr lange Zeit eine vernünftige Antwort zu geben.
Das haben sie leider versäumt.
Wenn sie jetzt noch durch Treiberfuscherei etwas aufholen, dann doch nur um die karten an den Mann zu bringen.
Leider werden hier wieder viele darauf reinfallen.

Nvidia hat diesmal die hausaufgaben etwas besser gemacht.

MFG Tommes
 
k3x schrieb:
Aus Marketingsicht ist das Dummheit...der Imageschaden der 2900XT ist am ersten Tag nicht wieder gut zu machen...das will kein Hersteller...viel besser wäre es, wenn die XT von Anfang an ca. 10% bis 20% als die GTX oder gar ULTRA schneller gewesen wäre in den meisten Benchmarks...



Kann schon sein, aber diese Fakten sind auch für nVidia zutreffend...

Was zählt, ist die gegenwärtige Leistung und diese sieht nun mal für AMD nicht so gut aus...es kann sein, dass die Performance erhöht werden kann, aber für die meisten Kunden zählt die momentane Leistung...es wird sich kaum ein Kunde finden, der ein Produkt kauft, dass erst wahrscheinlich in ca. 1 bis 3 Monaten die Leistung entfaltet...

Da hast du sicher Recht es war unklug sie jetzt auf den Markt zu bringen aber ich glaube da hat sich ATI einfach verkalkuliert die mussten was halbwegs konkurrenzfähiges auf den Markt bringen. Ich meine Nur das sich der Kampf um die prestige HiEnd Karte jetzt noch nicht Fechten lässt das wird wohl dann passieren wenn es Crysis in den Läden gibt oder kurz davor. Weil klar ist das dieses Spiel jeder haben will und jeder auch Richtig gut spielen will. Und wir wissen noch nicht mal wieviel die Cryengine 2.0 wirklich braucht um ordentlich was darstellen zu können...

Fakt ist eine Geforce 8800GTS mit 640MB reich vollkommen aus um ein aktuelles Spiel mit 1280x1024 spielen zu können, das ist auch die Optimalauflösung für mein TFT Display somit brauche ich keine schnellere und bessere Grafikkarte wenn ich mir jetzt meinen Rechner aufrüste... Die nächste Frage die sich stellt ist: Kaufe ich mir jetzt einen schnelleren Rechner (und somit eine neue Graka oder erst im September) Nunja das hängt auch davon ab ob Crysis auf 1280x1024 mit hohen details auf ner Geforce 8800 GTS laufen wird. Wenn nicht dann Overclocken -> wenn das auch nicht reicht dann alte graka verkaufen und ne neue kaufen...

Aber ich denke mal das ne Karte die jetzt in Oblivion 60 FPS in 1280x1024 schafft wird wohl auch in Crysis auf die 25 frames kommen die man mindestens braucht um es flüssig spielen zu können...

[edit]: hinzukommt, das die Cryengine 2.0 eine der ersten sein wird die, die fähigkeiten von modernen Dualcore CPUs überhaupt nutzen kann... Und Und Und.... Wird sich also zeigen...
 
Zuletzt bearbeitet:
@sav

Das ist schlichtweg falsch. Auch wenn ATi ihre R600 später released hat, so ist er der Nachfolger des R520/580, welcher in Konkurrenz zur 7800/7900-Serie Stand.

Genau so ist die 8800-Serie der direkte Nachfolger der 7800/7900-Serie.

Und aus diesem Grunde werden die beiden Chipgenerationen miteinander verglichen!
 
Erst muss geklärt werden ob nicht die darstellungsqualität gesenkt wurde.Es ist merkwürdig das erst 4 spiele davon profitieren.Sieht aus als wird der treiber hand optimiert auf die spiele.Jetzt einen chip zu bringen der unter dx10 optimal läuft ist sinnlos weil er dx 10 only Spiele nicht mehr erleben wird.Wie bei 6800 mit shader modell 3.Als shader modell 3 only spiele kamen war die performance nicht mehr berauschend.Die chips sind designt nach dem Verwendungszeitraum.Das heisst die Generation wird es hauptsächlich mit dx9 Spielen zu tun bekommen die ein paar dx 10 effekte haben.
 
Hat jemand den besagten Teil des 3DC Artikels gelesen.

Dort wurde niemand an den Pranger gestellt.

@Grogul & Schrotti:
Also wenn ich jetzt nur 1 Satz aus einem ganzen Artikel nehmen würde, würde die 2900XT als beste oder als schlechteste Karte auf dem Markt darstehen.

http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index2.php#2

Also doch besser alles Lesen dann posten.
Wie sich hier einige wie notgeile geier auf ein altes stück fleisch schmeissen ist schon amüsant.

Gruss
Duque
 
"Erschummeln" lol

Wer sagt denn das es bei nvidia nicht genauso ist?

Wo bitte soll sonst der gewaltige Vorsprung von nvidia herkommen, so viel anders ist deren Technik auch nicht.
 
Zurück
Oben