News Benchmarks: Radeon HD 2900 XT vs. 8800 GTS

man soll eben warten.... dx10 hat noch kein mensch gebraucht.. und die treiberpolitik von nvidia war ja wohl auch eher traurig und bescheiden.... nun gibts besseres für gleiches bzw weniger geld
 
nö 3d center wars nicht...winfuture und heise glaub ich *sich out*

hmm...kann sein dass ich die grakas auch durcheinander gebracht hab...mit den ganzen xt und gts/gtx kommt man schonmal durcheinander...is nen x nun gut oder schlecht...wenn es vor oder hinter einem t steht?
 
Naja, ob man die XT mit der GTS vergleichen kann ist fraglich. Die GTS ist ja nen ganzes Ende billiger.
 
Korrekt. Man vergleich die HArdware einer bestimmten Preiskategorie miteinander. 2900XT VS 8800GTS und 2900XTX VS 8800GTX

@verwirrter

Das "X" am Ende der Bezeichnung deutet meistens auf eine schnellere Version hin.
 
mann da hat sich aber amd was vorgenommen mal sehen ob die werte dann auch das erreichen :lol:
 
aber einen kleinen fauxpas leisten sie sich schon, wenn sie als test-cpu ausgerechnet einen intel-nehmen. die vorgestellte karte ist doch eigentlich die erste richtige amd-ati-version, und dann zu einer intel-cpu greifen :o
die jungs scheinen derzeit ja selbst nichtmal sonderlich überzeugt von ihrer hardware zu sein. wie soll das ein potenzieller kunde bewerten? kauft unsere neue highend-karte, aber um die leistungskrone auch zu erhalten, greift bitte zu einem intel-system, samt chipsatz und board.

oh,oh @marketingabteilung von amd.

grüße, franeklevy
 
AvenDexx schrieb:
Korrekt. Man vergleich die HArdware einer bestimmten Preiskategorie miteinander.

Also kann man die XT nicht mit der GTS vergleich, oder? ;)
 
Wenn Nvidia die Preise senkt von der 8800GTX, und diese sagen wir z.B 50€ nur mehr kostet als die 2900XT, dann ist klar welche Karte besser ist, genau die 8800GTX.

Außerdem wichtig:

Wie GUT sind die Treiber zum Release? Wer will ein halbes Jahr warten, bis es gescheite Treiber gibt?

Also der Erwartungsdruck für die 2900XT ist gewaltig.
Ich glaube nicht, dass sie die gerecht werden kann.
 
Ich bin auch gespannt, ob diese Ergebnisse wirklich stimmen. Ich rechne bisher noch immer damit, dass sie vom Niveau her mit der 8800-Serie zwar mithalten können, vielleicht sogar marginal schneller, aber einen riesigen Performancesprung wie hier kann ich mir nur schwerlich vorstellen.

@Kon_Artis
Abwarten, die Preise sind noch nicht sicher und zudem handelt es sich um die Einführungspreise die genannt wurden (wenn sie denn so kommen), die nicht den Preisverfall berücksichtigen, den NVidia schon hinter sich hat. ;)
 
Zuletzt bearbeitet:
AvenDexx schrieb:
@Soul_Ripper
Ja du mist mir ein Witzbold. Es wird neue Generation gegen neue Generation gebenched und du sagst, man könne es nicht machen? Erklär mir das mal bitte genauer. Womit soll denn sonst verglichen werden?

Du kannst eine Ur-Alte Graka nicht mit einer vergleichen die grad auf den Markt kommt, wenn sie denn mal endlich kommt.

Die nVidia ist schon seit NOVEMBER auf dem Markt und das ist schon eine ewigkeit da kann sich ATI nicht über so Benches freuen.

Du musst ja bedenken das die 9er Serie schon in ca. 5 Monaten kommt.
 
Egal wie man nun vergleicht. ich finde das 16% mehr leistung bei 320 zu 96 Streamprozessoren irgendwie nicht das gelbe vom ei ist. Da scheint mir Nvidia die bessere Architektur zu haben.
Zumal der speicher mit 512 bit angebunden ist und auch noch schneller taktet. Da hatte ich irgendwie mehr erwartet. nun ja der preis ist trotzdem attraktiv und mal sehen wie sie sich mit stromhunger, wärmeentwicklung und lautstärke in einem ausführlichen test schlägt.

meine gtx is scho so alt ich bräucht ma was neues und bei der ultra is der preis doch etwas zu aggresiv meiner meinung nach. ^^
 
Soul_Ripper schrieb:
Hier stand ein überflüssiges Zitat! <-- Na und? Was ist daran so schlimm, dass man deswegen in den Posts der User rumfummelt? Wenn man keine Arbeit hat, macht man sich welche. ;)

Das mit der 9er Serie besprechen wir dann in 5 Monaten nochmal. ;)

Und natürlich kannst du die beiden miteinander vergleichen. Zwar liegen einige Monate dazwischen, aber es ist von beiden Herstellern die aktuellste Architektur. Also wird die momentan aktuelle Architektur auch verglichen!

Wenn du das nicht zulässt, kannst du allgemein einen Vergleich zwischen ATI und NVidia nicht zulassen, da diese zwei völlig unterschiedliche Architekturen haben, die einen Vergleich nicht zulassen würden. ;)

Wie denkst du denn deiner Ansicht nach über den Vergleich 8800GTS VS X1950XTX nach? Die kann man dann ja auch nicht vergleichen und alle Benches im Netz die das machen wären dann hinfällig? (Die Logik is ja mal interessant.)
 
Zuletzt bearbeitet:
Soul_Ripper schrieb:
Hier stand ein überflüssiges Zitat!



Klar kann man das vergleichen...wieso auch nicht?

Jezt ist sie da und nvidia hat nix besseres, aus fertig!

ja dann kommt die 9er serie in 5 monaten...wer weiß wann der R700 kommt...
 
Zuletzt bearbeitet von einem Moderator:
naja, nach 6 monaten so schnell wie das topmodell der konkurenz? das ist nicht das gelbe vom ei!
 
@Daniel
Du bedenkst auch, dass es sich dabei um die 2900XT, nicht XTX handelt? (Sofern die Benches stimmen, wäre dies durchaus beachtlich)

@SSJ
Nein, das Flagschiff zum Start wird die 2900XTX sein. Diese ist doch von Anfang an mit angekündigt worden. Ob sie nun einen Monat später kommt, ist dabei doch ne ganz andere Sache. Wenn man Seitens NVidia die 8800 Ultra von Anfang an mit angekündigt hätte, müsste man wirklich die XTX mit der Ultra und die XT mit der GTX vergleichen.
 
Zuletzt bearbeitet:
Ich sag nur rofl, solche High-End Karten und die werden in Benchmarks welche nur mit 1280x1024 getestet. Ich will wissen wie die abschneiden wenn alles auf Full ist und die Auflösungen höher als 1280x1024 ist!!
 
Ich weiß gar nicht, was einige hier schon für Schlüsse ziehen. Mehr als diesen Benchmark, von dem alle Gegebenheiten nicht mal bekannt sind, haben wir noch nicht. Es kann ja sein, dass die ATI-Karte weniger Strom verbraucht und eventuell billiger wird.

Die 320 Streamprozessoren sollte man nicht überbewerten, da wir keine Auskunft über die Taktraten haben. Vielleicht gibt es bei ATI deswegen so viele davon, weil sie die wenigen nicht über eine getrennte Shader-Domäne takten, sondern synchron zum Rest. Vielleicht haben in dem Test oben auch andere Faktoren limitiert, wie zB die TMU-Leistung oder oder oder ... wartet doch das Relaese ab.
 
AMD/ATI back ? Nicht schlecht aber mal schauen wie Nivida darauf anwortet werden auch noch ein AS im Ärmel haben ;)
 
schön, nur werde ich mir ne x1950pro holen und damit bis weihnachten auskommen und mir dann ne 8900gt oder sowas in der art holen was dann wohl für 250 zu haben sein wird, oder ebene eine x2950pro, also r650 kleine version, bin 08 wirds eh nix mit dx10 wies mir scheint, ausnahme crysis ^^
 
Zuletzt bearbeitet:
um das nochmal klar zu sagen: die 320 streamprozzesoren von ATi kann man nicht mit nvidias vergleichen.

nvidia
- 128 shader
- 1D-shader
- über 1GHz takt

ATI
- 64 oder 80 shader
- 5D- oder 4D-shader
(=320 streamprozzesoren in der theorie, aber nicht in der praxis!)
- unter 1GHz takt

ihr seht, dass man die GPUs von ATi/nvidia NICHT direkt vergleichen kann. letztlich kommt es auf die architektur an!

in sachen speicher gewinnt ATi klar. im bereich stromverbrauch vermutlich nvidia.

mögen die spiele beginnen :D
 
Zurück
Oben