News Benchmarks: Radeon HD 2900 XT vs. 8800 GTS

@AlphaGoku
"bei höheren auflösungen wird der abstand zur GTS wohl etwas größer werden"
??? Bei deinem Link sieht man das der Abstand zur GTX kleiner wird. Folglich doch wohl auch zur GTS oder nicht?

Zudem, seht mal, Crysis Demo@ High mit 1600x1200 und AA/AF mit 50 FPS
Was will man mehr? Alles nach G80 und R600 sind dann bis UT 3 eh schnuppe ^^
 
Ein Benchmark unter einer 1600+ Auflösung interessiert mich nicht.
Weil ich mir in bälde einen 20" 16:10 kaufe.

Warum muß eigentlich immer ein Hersteller den anderen übertrumpfen müssen um von euch nicht als SCHEISSE abgestempelt zu werden.

SO wird NIE ein 3. Hersteller eine Chance haben der einfach nur gute und billige Midrangekarten anbieten will.
Wie damals Hercules etwa, oder Matrox, oder...

Selbes trifft auf Intel/AMD zu.
IMMER wird vom Stromsparen geredet... bei gleichzeitigem Wunsch nach Superleistung.
Wäre das nicht so, würde sich Transmeta dumm und dämlich verdienen.
 
Könnt ihr mit euren kindischen geplänkel mal aufhören.
Hier ist alles zu lesen was noch überflüssiger als flüssiger ist. Beim nächsten mal wird nicht
versenkt, sondern gebannt. Die Regeln (Zitieren) darf man auch einhalten.
 
@r4yn3

Meine Aussage zur GTS bezog sich auf die Benches in der News...

Der GTX Vergleich war MEINE Einschätzung
 
Sollte es nicht umgekehrt sein?

In etwa so:"Meine Aussage zur GTX bezog sich auf die Benches in der News...

Der GTS Vergleich war MEINE Einschätzung"??
 
Sieht doch ganz gut aus, und wenn der Preis noch etwas runter korregiert wird.
Mai..das ginge sich wunderbar mit PC Neukauf (Juni/Juli) aus...schade das AMD keinen Desktop K10 bringt bis dahin :mad:

Weil manche meckern armes alte GTS/GTX vs neue ATI.
Gleichen trollen auch rum wie schnell doch aktuelle C2D gegenüber dem alten A64 ist.

Das die einen C2D für die Benchis nahmen, ist wohl auch klar, das viele Kunden aktuell eben C2D drin haben(es planen aktuell) und möglicherweise von der X1950 Serie aufrüsten wollen. Die geht nachwievor ausgezeichnet zum Spielen, selbst in Kombo mit so mickrigen E4400.
 
Diese ganzen Streitereien hier sind meiner Meinung nach überflüssig. Es ist furz-egal, welche Modelle miteinander verglichen werden, oder wer welches Modell früher auf den Markt gebracht hat. Was am Ende zählt, ist nur eins:

Das Preis/Leistungsverhältnis!

Wenn mir in 8 Wochen in den Sinn kommt, daß ich eine neue Graka brauche, dann kaufe ich mir die mit dem besten Preis/Leistungsverhältnis. Oder wenn ich Enthusiast bin, das Modell des Herstellers mit der größten Leistung. Da ist es mir völlig egal, ob das PCB grün oder rot ist, oder wann welche welche Karte auf den Markt gebracht wurde...

Verschwendet Eure Energie doch nicht für solch sinnfreie Diskussionen
 
Also ich sage dazu nur eins es war doch soo klar das die 2900XT die 8800GTX schon fast "überholt"
und das mit großer Wahrscheinlichkeit die 2900XTX der 8800GTX wieder etwas überlegen ist und seins
auch um längen.
Bloß das ist doch immer ein HIN und HER dann wir NVIDIA ne andere Karte rausbringen
die die 2900XTX um längen schlägt dann kommt ATI wieder usw. usw.

Also ich habe die 8800GTX und bin überaus zufrieden mit dieser Grafikkarte und mir
kommt es doch persönlich nur darauf an das ich meine Spiele ordentlich spielen kann.
 
bin gespannnt wie ein flitzebogen auf aussagekräftigere Benchs. Außerdem soll die X2900XT mit der 8800 gtx konkurrieren, warum vergleicht man hier mit der gts?
 
Endlich legt AMD/ATI die Karten ein wenig offener hin. So wie es ausschaut sind die neuen ATI Karten doch net so schlecht wie manch einer glaubte.
Freu mich schon auf einen ausführlichen Test von CB und was die neuen Karten noch so alles in sich verbergen.

P.S. Wieso habe ich das gefühl das hier manche es nicht verkraften wenn seine Lieblingsfirma mal langsamer bzw nicht besser ist als die Konkurenz :freak:
 
SSJ schrieb:
Wenn Nvidia die Preise senkt von der 8800GTX, und diese sagen wir z.B 50€ nur mehr kostet als die 2900XT, dann ist klar welche Karte besser ist, genau die 8800GTX.

Außerdem wichtig:

Wie GUT sind die Treiber zum Release? Wer will ein halbes Jahr warten, bis es gescheite Treiber gibt?

Also der Erwartungsdruck für die 2900XT ist gewaltig.
Ich glaube nicht, dass sie die gerecht werden kann.

... willst du treibermäßig von Nvidia auf ATi schließen, oder wie sollen wir deine Aussage verstehen?

Außerdem heißt glauben nicht wissen - und genau das könnte die Überschrift deines Beitrages sein ...

DaiSifu schrieb:
bin gespannnt wie ein flitzebogen auf aussagekräftigere Benchs. Außerdem soll die X2900XT mit der 8800 gtx konkurrieren, warum vergleicht man hier mit der gts?

... weil die X2900XT nun mal nicht die Topkarte von ATI ist - die nennt sich nämlich X2900XTX ... :D
 
Zuletzt bearbeitet:
ist doch absolut wurst gegen wen die karte antritt.....

man sieht die leistung und kann dann, wenn z.b. cb die teile im mai testet, zu jeder karte im performancevergleich wunder schön sehen, wie sich der testkandidat zu all den unterschiedlichen anderen karten verhält!

eine kauf entscheidung hängt dann zumindest bei mir vom preis, der leistung und dem aktuellen bedarf ab. wenn der aktzeptabel ist, dann vergleich ich in meinem definierten preissegment zwischen ati und nv. dann wirds halt mal ati und ein andermal nv. :p

ich hoffe aber dennoch, dass ati wieder aufschließen kann. schließlich belebt konkurrenz nicht nur den preis und das geschäft, sondern auch die technologieentwicklung
 
Finde solche Benchmarkvergleiche ziemlich bescheuert. Da werden zwei, drei benches herausgepickt und das soll dann aussagekräftig sein? Außerdem ist es meiner Meinung nach lachhaft, wenn noch nicht mal die genauen Qualitätseinstellungen bekanntgemacht werden.
Deshalb abwarten, ob die HD1900XT wirklich so ein Tier ist :evillol: . Bin ja ATI im Grunde genommen nicht abgeneigt ;).
 
ein test mit der 8800 gtx wäre doch das interessante gewesen
 
Ihr solltet bedenken:

a) Weder ATI noch NVidia können zaubern. Das Design ist natürlich verschieden, aber das liegt an verschiedenen Philosophien.

b) Ich kann auch 1000 Streamprozessoren reinpacken, wenn ich es schaffe, den Prozessor so klein zu machen, daß noch genügend auf einen Wafer passen um etwas zu verdienen.

c) Der Faktor, der die Zahl der Recheneinheiten begrenzt, ist die Fertigungstechnologie. 80nm brauchen eben weniger Strom als 90nm.

d) Halbleiterei ist ein erster Linie ein Invest. Die Investoren wissen ziemlich gut über die Technik der Firmen Bescheid. ATI und Nvidia haben weniger Geheimnisse, als Ihr glaubt, zumal sie eh nur noch zu zweit sind und in den USA immer zwei schon einen "funktionierenden Markt" ausmachen. Der eine kann den anderen niemals schlucken oder platt machen.

Am Ende ergeben sich gerigfügige Unterschiede in der Darstellung, die der Käufer sieht. Aber größere Unterschiede liegen im Stromverbrauch, und der allergrößte und wichtigste Unterschied liegt darin, wieviel die Firma verdient.

Wenn Nvidia dieselbe Darstellungsqualität mit einem kleineren und weniger aufwendigen Chip schafft, dann ist die Rendite besser. Mehr ist das alles nicht. Nach AMD hat aber jetzt auch ATI scheinbar das Problem, daß sie Designnachteile durch kleinere Gewinnmargen ausgleichen müssen, und damit geht langfristig natürlich die Renditeschere auseinander.
 
Hier mal die Einstellung bei den Tests:

Call of Duty 2: Anisotropic filtering, 4xAA (in game), V-Sync off, Shadows enabled, a high number of dynamic lights, soften all smoke edges and an insane amount of corpses.

Company of Heroes: High shader quality, High model quality, Anti-aliasing enabled (in game), Ultra texture quality, high quality shadows, high quality reflections, Post processing On, High building detail, High physics, high tree quality, High terrain detail, Ultra effects fidelity, Ultra effects density, Object scarring enabled and the model detail slider all the way to the right

F.E.A.R.: 4x FSAA (in game), maximum light details, shadows enabled, maximum shadow details, soft shadows enabled, 16x anisotropic filtering, maximum texture resolution, maximum videos, maximum shader quality.


Half Life 2: Episode 1: High model detail, high texture detail, high shader detail, reflect all water details, high shadow detail, 4x multi-sample AA (in-game), 16x anisotropic filtering, v-sync disabled, full high-dynamic range.
 
Hast du auch ne Quelle zu den angeblichen Einstellungen?
 
w0mbat schrieb:
Hier mal die Einstellung bei den Tests:

Call of Duty 2: Anisotropic filtering, 4xAA (in game), V-Sync off, Shadows enabled, a high number of dynamic lights, soften all smoke edges and an insane amount of corpses.

Company of Heroes: High shader quality, High model quality, Anti-aliasing enabled (in game), Ultra texture quality, high quality shadows, high quality reflections, Post processing On, High building detail, High physics, high tree quality, High terrain detail, Ultra effects fidelity, Ultra effects density, Object scarring enabled and the model detail slider all the way to the right

F.E.A.R.: 4x FSAA (in game), maximum light details, shadows enabled, maximum shadow details, soft shadows enabled, 16x anisotropic filtering, maximum texture resolution, maximum videos, maximum shader quality.


Half Life 2: Episode 1: High model detail, high texture detail, high shader detail, reflect all water details, high shadow detail, 4x multi-sample AA (in-game), 16x anisotropic filtering, v-sync disabled, full high-dynamic range.

wombat, bist du in wirklichkeit der CEO von ATI oder was?

nun, wenn fast alles mit AA/AF gemacht wurde, ist das doch schonmal besser ;)
 
Die Einstellungen stimmen aber nicht, denn sämtliche Gamebenches wurden im Spiel zwar mit maximalen Einstellungen gemacht, allerdings nur bei 1280x1024, ohne AA/AF.

(Und welche Aussage stimmt nun?)

Das was natürlich nur ein Joke, aber im Grunde hätte dies jeder schreiben und völlig kommentarlos hier posten können. Wo kommen denn die Infos her? Sind es vielleicht wieder reine Insiderinfos, wie Wombat sie schon des öfteren gebracht hat?
 
Zurück
Oben