News Bilder & Benchmarks: HD 2900 XT 1.024 MB GDDR4

Glaub kaum das zwischen 512mb und 1024mb ein großer unterschied ist, glaub eher kaum einer.
 
ZUm Unterschied das die ATI Radeon 2900XT mit einem Core 2 Quad 6800 und die Nividia Feforce 8800 GTX mit einen Core 2 Quad 6600 getestet wurde sind ja nur 0.33 GHz pro Kern e nur!!

Also für mich ist dieser Test Getürkt zu Gunsten von ATI/AMD!!!!
 
ich denke der größere vram macht sich sowieso erst ab 1600*1200 mit 4AA/16AF und HÖHER bemerkbar. und dann auch höchstens mit 10% plus.

zwar kann man nun super große scharfe texturen speichern, aber die TMUs sind zu lahm um die ordentlich zu filtern :lol::lol::lol:
 
Mhh der R600 ist sehr Vram sparsam.

Ob das Gleichstand ist wenn die Ultra weniger RAM und keine TU hat?

Die 640MB-Vram einer 8800GTS gehen schneller voll als 512MB einer X1950XTX.
Die 1GB auf derm R600 werden jedenfalls bei hohen Qualitätssettings viel bringen, aber soviel auch nicht.

Was meinst du mit TU?


mfg Nakai
 
Na, mit 2 davon sollten doch die 1KW zu schaffen sein, oder? Und dann am besten noch die Kiste 24h laufen lassen....:( Gegen die Stromrechnung ist dann der Anschaffungspreis gar nix.
 
1GB GDDR4 ... Halelujia ... Die Karte wird gewiss nur ab 500€ aufwärts zu haben sein.
Dem ist kein Spiel gewachseln ...

mfg,
Markus
 
Nicht schlecht würde ich sagen Ordentliche werte, auch wenn AMD ganz schön spät damit drann ist.
 
Egal wieviel punkte die einzelnen karten holen und auch egal, wie lange es noch dauern wird, bis die 20.000er marke genackt sein wird, und auch egal welches netzteil dafür erforderlich sein wird und muss, ich setzt aufs notebook.
Nicht zu lezt wegen der imens gestiegenden stormaufnahme heutiger high-end grafikkarten.
Der umwelt zu liebe, nicht der highscore 06 zu liebe ;)
 
Benchmarking OK, aber Preise hätten mit genannt werden müssen - schließlich vergleicht man auch das Preis-/ Leistungs- verhältnis. Naja,... aber die Quelle sieht nicht sehr seriös aus. Ein Vergleich, sowie Benchmarks von THG hierzu.

Edit (nach #32): Quelle ist bekannt und seriös, war allerdings mir kein Begriff. Danke.
 
Zuletzt bearbeitet:
@GeneralHanno & Nakai: Ja, ich meinte Tesselation Unit. Nur ist diese nicht nutzlos, da z.B. einige XBox360 Portierungen dieses Feature nutzen werden. Und ein wenig DX11 im seiner GPU ist ja auch nicht schlecht ;)

Mike# schrieb:
[...]aber die Quelle sieht nicht sehr seriös aus.[...]

Die Quelle ist total bekannt und und eine Hardwarelegende. Seriöser geht´s nicht.
 
Erstmal richtig schauen dann labbern?
Die Ultras sind auch mit einem Quad@4Ghz gebencht.

Lol wäre ja noch schöner fast 20k mit 2,66 Ghz
 
Aber der G80 hat keine Tesselationseinheit.

T(F)U? Also Textur-Filter-Unit?
Dann könnte der G80 nur BiFiltern ohne Einbrüche, genau wie der R600. Das würde man nur beim Filtern sehen und da auch nicht so sehr, da der G80 eine sehr hohe Füllrate hat. Aber da der G80 sehr ausgewogen ist, kann man schwer sagen, was zuerst limitiert.

mfg Nakai
 
Warum hat AMD/ATI nicht sofort dieses Modell ausgeliefert ? Somit wäre GTX und 2900xt HD gleich auf!
 
Müllermilch schrieb:
Warum hat AMD/ATI nicht sofort dieses Modell ausgeliefert ? Somit wäre GTX und 2900xt HD gleich auf!

Alles eine Frage des Stromverbrauchs- man hätte den Speicher auch noch deutlich höher takten können ohne außerhalb der Spez. zu liegen. Dann braucht er aber mehr Spannung => er frisst mehr Strom.
 
Von gleich auf kann keine Rede sein. Mit AA und AF stürzt die ATi wieder mal ins Bodenlose ab...
 
OMG was glaubt ihr alle? wirkt der Schwanzmark immernoch?

Ich bin fester Überzeugung, dass die XT mit einer GTX mithalten kann, aber nicht mit mehr RAM, sondern mit reifen Treibern.

Der Typ sollte Quake 4 (OpenGL) testen, denn man ist die API bei ATi in Ordnung

welch ein Paradoxum wenn man sich die letzten Jahre anschaut...

edit: bezüglich Stromverbrauch: DOOF?

Vergleicht mal die GTS 320 mit der 640er

Sind es mehr als 5 Watt?
 
Zuletzt bearbeitet:
Zurück
Oben