Test Test: ATi Radeon X1900 XTX und X1900 CF-Edition

@xXstrikerXx
Bub die x1900 kommt nicht selten an das 7800gtx 512mb SLI ran sondern überhohlt es zeitweiße sogar und das will ja was heißen wobei ich noch denke, dass der Treiber sie immer noch nicht voll optimiert:evillol:

Mfg stefan
 
Zuletzt bearbeitet:
Aus dem ersten Absatz zu HL2: Lost Toast:
"So liegen zwar die Texturen im FP16-Format vor – beziehungsweise INT16 für ältere Grafikkarten als die Radeon X1000- sowie GeForce 6x00-Serie –, allerdings verzichtet Valve auf FP16-Blending. Aus diesem Grund können auch X8x0-Grafikkarten in Lost Coast HDRR darstellen."
Ist das aber ein Zungenbrecher...
Das INT16 Format wird nur dann benutzt, wenn die Grafikkarte FP16-Texturen nicht filtern kann. Alle nVidia-Grafikkarten ab NV40 (NV44?) beherrschen FP16 Filterung, also werden die FP16 Texturen verwendet. Im Umkehrschluß...
Muß hier überhaupt geblendigt werden?

Funktioniert das HDR in Lost Toast auch auf den FXen?
 
Smash schrieb:
Hallo

Hätte ich gern mit AA und AF gemacht jedoch gibt es bei 3D mark06 keine nVidia angaben.

In seiner Weisheit meinte Futuremark, daß das FP16-HDRR in den SM 3.0 GTs zum Standard gehören muß, die G60 und G70 können aber kein MSAA iVm FP16-Buffer.
 
Zuletzt bearbeitet:
Naja, sooo viel größer als der "Stromhunger" der 7800 GTX 512 ist der der X1900 XTX ja auch wieder nicht (naja okay, 31 Watt unter Last). Die höheren Temperaturen und v.a. die höhere Lautstärke hat man wohl doch eher dem im Vgl. zur 7800 GTX 512 viel kleineren Kühlkörper zu verdanken, da der Lüfter dann schneller drehen muss... Hätten sie auf die X1900XTX einen ebenso gigantischen Kühlkörper samt 80er (?) Lüfter gebaut wie auf die 7800 GTX 512, lägen beide Karten imho in punkto Temperatur und Lautstärke unter Last wesentlich enger beieinander...
 
naja 30 watt bei geschätzen 100watt der 7800gtx 512 wären um die 30% mehr
was ich als sehr viel erachte
man berücksichtige das der g70 noch in 110nm gefertigt ist

aber nv muss es mit dem g71 erst mal besser hinbekommen
 
Naja, die Karten wirken auf mich wie fitgespritzte X1800Xts.Die Shader-ALUs sind nett,aber sonst gibt es ja nicht wirklich viele Neuerungen auf dem PCB.Stromverbrauch und Lautstärke sind jenseits von Gut und Böse.Nvidia(Nein, ich bin kein Fanboy) hat das meiner Meinung nach eleganter gelöst.Die G70-Serie wirkt aufsgereifter, die Lautstärke und der Stromverbrauch sind gemäßigter, auf die paar Frames kann man verzichten.
 
Dafür kann keine Nvidia Karte ab NV40 winkelunabhängig filtern und kann kein AA und HDRR! Deshalb sind ja auch beim 3dmark06 keine Nvidia Karten mit AA&AF getestet worden.
 
Ich will unbedingt endlich ne 7900 bestellen dürfen :) In max 6-7Wochen sollte es soweit sein :) Wie stehen die Chancen, dass die 7900 schon vor der Cebit rauskommt? 0% oder? :D
Hoffe es gibt auch bald Benchmarkergebnisse *hoff*
So ich geh mal wieder beten culle....:D
 
Das Kühlsystem der Ati ist sehr gut jedoch ist die Karte so warm nur ganz nebenbei;) den Kühler von His steckt die mit Links weg:p

Wenn der lüfter auf vollen Touren läuft kann man 1.5 meter hinter dem Gehäuse noch die Abluft fühlen:evillol: Alle die die x1800xt haben oder hatten (like me) können das bestätigen.:cool_alt:

Jedoch läuft er nie auf vollen Touren nur mit 70% und das bis 98° oder so glaube ich, da müsste jetzt einer der die x1800 hat nachschauen....

Kurz gesagt:

Der Kühler ist sehr gut nur laut wenn er auf 100% lief, da hatte meine x1800xt jedoch 56° unter Last!

Mfg stefan
 
Zuletzt bearbeitet:
das dauert sicher noch ne weile bis die nächste nv kommt.oder haben die schon was angekündigt?
wollte mir ne x1900xt holen und ich denke damit is man doch erstmal gut bedient.shader3 und jede menge power,features wird in nächster zeit wohl auch nicht so viel neues geben,oder?ach,immer diese schweren entscheidungen... :freak:
 
Warum soll ich mir so ne Karte für fast 700€ kaufen:freak: Das ist doch absoluter schwachsinn.
Wenn mann sich mal das Preis-Leistungs- Verhältnis anschaut ist mann mit ner Karte zwischen 300 und 400 € bestens ausgestattet.

Die Benchmarkergebnisse wundern mich überhaupt nicht, wo doch hier ATI schon immer besser abgeschnitten hat. Und wie man auch sehen kann, sagen solche Ergebnisse nichts über die Spieleperformance aus. Denn das ist bei jedem Spiel anders.

Ich weiß zwar auch nicht ob es jemanden Interessiert, wieviel Strom sein Compi braucht (zahlt ja Mami).

Ich bleibe nvidea treu, braucht nicht so viel Strom, ist leiser, billiger und hat vor allem Power.:cool_alt:

Gruß
 
@193
es wurden spiele gebencht so what?
auch wenns timedemos sind die vergleichbarkeit bleibt imo gewahrt
 
bin ich der erste dem das auffält oder ist das absicht das die screens mit dem r520 gemacht worden sind :lol:
 
Nein, also jetzt wo Du das sagst; es ist mir auch aufgefallen. Konnte dann aber den Test nicht zu ende lesen und kam bisher nicht mehr dazu. Wollte das eben auch mal fragen...
 
@ kaepten auf wieviel grad geht dein 4000er mit dem xp120 ?

mfg
 
Hab Gestern 2 Stunden 3D Shooter gezockt, 48° war das höchste. Sonst im Windows 40° bis max 42°.
 
@ kaepten

Sehr gut dachte schon hab den falschen Lüfter verbaut. Naja hab nen 3000+ wie man unschwer erkennen kann und krieg nach 4 stunden bf2 ca 38grad zusammen ich denk dann passt das eh. Trotzdem find ichs schade das ich meine Wakü vertickt habe :)
War immerhin ein Morra2 Pro aber ein veralteter Zern PQ ^^ aber für 25 grädchen hats gereicht.

mfg
 
Die Bilder sind aus Zeitgründen mit dem R520 gemacht worden.
Das spielt aber keine Rolle, da die Bildqualität gleich geblieben ist.
 
Zurück
Oben