radeon x1950xt zu wenig leistung

m3phist0201076 schrieb:
Sagt mal geht es euch nur um blanke Zahlen oder ob man es sich´s ansehen kann ohne zu kotzen?:freak:

Alles was über 60fps geht ist mit nem menschlichen Auge wohl kaum wahrnehmbar.

Wenn nichts ruckelt ist doch prima oder?

[OT]
Eigentlich geb ich dir da völlig recht! Aber...
CS1.6/CS:S sind dumme Spiele bei deinen man mit mehr FPS einfach besser spielen kann, ist einfach so.
[/OT]

oXe
 
Alles was über 60fps geht ist mit nem menschlichen Auge wohl kaum wahrnehmbar.
-> stimmt
CS1.6/CS:S sind dumme Spiele bei deinen man mit mehr FPS einfach besser spielen kann, ist einfach so.
-> stimmt (leider) auch

die Source engine kommt im MP meiner meinung nach erst mit dauerhaften um die 100fps auf touren genauso wie bei CoD2.

aber hier ist klar der 3200+ schuld ...

cYa
 
Also... ich habe einen 3500+ Winchester und 1GB RAM und ebenfalls eine 1950XTX.
Fazit: Leistung könnte besser sein... warum? => CPU ist schon 2 Jahre alt und 1GB ist für eine solche GraKa eigentlich auch nicht das Gelbe vom Ei... Deshalb habe ich mir jetzt einen der letzten FX60 bestellt und noch 1GB RAM.

Achja... wie wärs wenn wir mal die FPS-Anzeige auschalten und mal einfach nur ganz subjektiv warnehmen wann man was runterstellen kann bzw. wanns ruckelt? Z.B sehe ICH in Carbon keinen Sinn darin 6AA zu verwenden. AF ist in dem Spiel viel wichtiger... Während ich in JointOperstions nur Trilinieare Filterung verwende und dafür 6AA mit Temporalen AA und Adaptive AA auf HighQuality. Bei machen Games ist es auch einfach sinnlos alles auf Maximum zu stellen...
Ich vermute du gehörst zu denjenigen, die nur auf die Zahlen schauen und optisch keinen Unterschied zwischen 2xAA und 6AA sehen. -nur meine subjektive Einschätzung...
Bei CSS hast natürlich Pech gehabt... das Game braucht AF und AA...

VideoStress-Test:
Resolution: 1600x1200
AA: 4x mit temporalem und adaptivem AA, eingestellt auf "Qualität" (höchste Einstellung)
AF: 8x
HDR: on
Mipmap-Detaileben: "Qualität" (2t-höchste Einstellung)
Catalyst AI: Standard
alles andere: Maximum

FPS: 72!
Das reicht ja wohl für 1600*1200...
 
Zuletzt bearbeitet:
cssjunky schrieb:

Wo hast den klugen Satz ausgegraben?

Oh ich sehe gerade, da ist gar kein Satzzeichen!:evillol:

Selbst ich bin von meiner grafikkarte neg. überrascht, weil ich bei Oblivion ab und zu mal, wenn viel zu sehen gibt, unter die 25fps Grenze falle.(alles auf max+HDR an)

Und das merkt man dann schon mit bloßem Auge.

Auch bei FarCry gehen in weiten offenen Teilen die fps weit unter 50.
 
Auch bei FarCry gehen in weiten offenen Teilen die fps weit unter 50.
daran ist dein P4 "schuld".

und oblivion ist ... naja eher schlecht programmiert.

ich teste des öfteren systeme und gerade die kleineren A64 hängen mittlerweile ziemlich hinterher :( (so wie meiner).

cYa
 
Ja ich weiss, der geht auch bald in Rente bei mir!

Das passende Board erstmal besorgt und nun kommt "conroe"!;)
 
mhmm bisjetzt wars doch immer so , dass man sowohl maximale und minimale FPS-raten im spiel hat.

Was mich bei den ganzen benchmarktests aufregt ist dass nur die durchschnittlichen fps raten angegeben werden. z.b die ganzen game tests von computerbase. Es wäre doch hilfreich wenn auch die minimalen FPS -Raten stehen würden.
 
HardlineAMD schrieb:
Bei NFS: C ist dein Wert völlig normal, bei CSS limitiert eher deine CPU. Also stell AA/AF runter oder aus.

Wenn die CPU limitiert, dann bedeutet dies für gewöhnlich, dass man AA / AF ohne merkbaren Geschwindigkeitsverlust erhöhen kann, weil ja die CPU limitiert und nicht die Grafikkarte. Erfahrungsgemäß hilft bei CSS aber dennoch AA auf 2x zu reduzieren oder ganz abzustellen. AF hingegen darf ruhig auf 8x oder 16x belassen werden, das kostet nicht soviel Performance.

@ cssjunky

Auch wenn die X1950XT recht neu auf dem Markt ist, so ist sie im Prinzip doch eine aufgebohrte X1800er Karte, die immerhin schon auf über 1 Jahr "alt" ist. Leicht erhöhter Speicher- und Chiptakt hier, Verdreifachung der Shadereinhieten pro Pixelpipeline da, umrühren, fertig. Selbst mit meinem System geht Oblivion bei 1280x1024 in die Knie (< 25fps), wenn man es wirklich darauf ankommen lässt und durch ein paar Tweaks / Mods die Optik und Sichtweite erheblich erweitert. Alles in allem reicht Deine CPU aus, würde mir aber von einem DualCore Prozessor jetzt keinen Quantensprung erhoffen. Dann lieber einen günstigen SingleCore oder Deinen jetzigen übertakten, wenn man es denn möchte und die Peripherie (Board, Speicher, CPU selbst etc.) dies auch mitmacht.
 
versteh ich net..
bei mir kommt Oblivion nie unter 30fps.. selbst mit meinem alten 3500+ nicht.. und ich hab auch alles auf max, 1280*1024 und HDR nur kein AA, da Oblivion irgendwie nich will..

@wolfenstein: eine Verdreifachung der shadereinheiten ist schon ein deutlicher leistungsschub..
würd eher mit aufgebohrte 1900xt argumentieren ;)
 
X-TR4 schrieb:
versteh ich net..
bei mir kommt Oblivion nie unter 30fps.. selbst mit meinem alten 3500+ nicht.. und ich hab auch alles auf max, 1280*1024 und HDR nur kein AA, da Oblivion irgendwie nich will..

Das verlangt ja auch keiner!;)

Glaube nicht das Du alles an hast und alle Details auf max.:rolleyes:

Würde mal gerne Deine Treiber einstellungen wissen.

Weiss nicht ob Du auf´n TFT zockst, meine Auflösung ist ja auch anders als Deine.

Es geht entweder nur AA+Bloom oder HDR mit HDR sieht´s aber besser aus.

Da kommen die schöne Lichteffekte zur geltung.
 
X-TR4 schrieb:
versteh ich net..
bei mir kommt Oblivion nie unter 30fps.. selbst mit meinem alten 3500+ nicht.. und ich hab auch alles auf max, 1280*1024 und HDR nur kein AA, da Oblivion irgendwie nich will..

Och naja, bei mir geht´s des öfteren unter 30fps (1280x1024, HDR, 8xAA + 16xAF), z.B. diverse Stellen in den Städten Leyawiin und Bravil oder östlich vor den Toren von Skingrad, wo die Weinberge sind. AA hier abzuschalten, bringt rein nichts - da limitiert wohl immer noch die CPU :rolleyes:. Das war mit meinem 3700+ @ 2750 MHz so und ist jetzt auch noch der Fall - mit dem Unterschied, dass ich nicht mehr 15-20 fps habe, sondern akzeptable 20-30 fps ;). Schon krass, der 8800GTX kümmert 8xAA quasi gar nicht. Das einzige, was hier merkbar gegen zu niedrige fps hilft, habe ich mal mit * gekennzeichnet. OK, sind jetzt Extremsituationen, genauso wie viele Kämpfe mit all den tollen Zaubersprüchen, aber soviel zum Thema "geht nie unter 30fps" :D. Hängt eben doch massiv von diversen Einstellungen ab, die man u.U. nur per Oblivion.ini erreicht. Die Vergelichbarkeit untereinander ist damit ein wenig "schwierig".

gridstoload=7 (standardmässig, auch auf max. Qualität, sind 5 Grids eingestellt, da poppen aber die Objekte recht nah auf, was kagge aussieht)*

uGridDistantTreeRange=50
uGridDistantCount=50
uGridDistantTreeRangeCity=25
uGridDistantCountCity=25

bUseWaterReflectionsMisc=1
bUseWaterReflectionsStatics=1
bUseWaterReflectionsTrees=1
bUseWaterReflectionsActors=1
bUseWaterReflections=1
bUseWaterHiRes=1
bUseWaterDisplacements=0
(Wasserverdrängung; nicht 1, gibt ansonsten Grafikfehler)

iMinGrassSize=80 (je kleiner der Wert, desto mehr Gras)*

X-TR4 schrieb:
eine Verdreifachung der shadereinheiten ist schon ein deutlicher leistungsschub..
würd eher mit aufgebohrte 1900xt argumentieren ;)

Ja, gut, bei F.E.A.R. z.B. hauen die Shadereinheiten schon rein, nur insgesamt gesehen liegt die X1900XT vielleicht 10-15% vor der X1800XT 512 MB, siehe CB-Test. Oftmals liegen die Karten mehr oder weniger gleich auf.
 
Zuletzt bearbeitet:
@ Wolfenstein 2k2

Wie stellst Du AA ein?

Im Spiel geht´s ja nicht.

Im CCC habe ich ja auch alles auf max stehen weiss nur nicht ob es das übernimmt.
 
HDR "ein" und AA "aus" im Spiel einstellen, geht ja nicht anders, Oblivion meckert ja sofort, wenn man beides gleichzeitig einzustellen versucht. AA dann über den Treiber erzwingen. Ging auch mit meiner X1800XT und dem Catalyst 6.11 / 6.12 bis zuletzt wunderbar, kein Chuck Patch mehr nötig seit 6.9 oder so. "Catalyst AI" muss dafür an sein, soweit ich weiß. Sieht man ja sofort, ob AA an ist oder nicht. Am besten ein Profil erstellen, hatte 4xAA + 16xAF "an", Temporal AA "aus", Catalyst AI "Advanced", Adaptive AA "aus". Eventuell Systemneustart, damit die Einstellungen wirksam werden, da war das CCC ein wenig zickig manchmal.
 
Zuletzt bearbeitet:
Danke werde das mal gleich testen!
 
@mephisto:

ich habe alles auf max , was im spiel geht..
in der CFG habe ich nichts verändert.. also nur das, was man im menü einstellen kann
 
Habe jetzt im CCC alles so eingestellt wie beschrieben, hatte nur adaptives AA nicht an sonnst alles so wie Du gesagt hast.

Mit dem Ergebniss das ich nicht mal mehr über 30fps hinaus komme.
Die CPU limitiert bestimmt sehr stark. Das ändere ich bald!:D

Es ruckelt dann ab und zu aber sieht auch sehr gut aus.

Ich denke ich werde meine alte Einstellung weiter nehmen und mit HDR sieht´s ja auch schick aus. Und ich bezweifel das jemand das sehen kann das AA an oder aus ist bei dem Spiel.
 
Ich merke das schon, eigentlich bei fast jedem Spiel. Wenn man AA gewöhnt ist und dann auf einmal oder zum Testen kein AA mehr hat, sieht es einfach bei 1280x1024 in meinen Augen störend aus mit flimmernden Kanten. Musste mich bei der Gothic 3 Demo auch erst einmal daran gewöhnen, kein AA zu haben, aber wahrscheinlich gewöhnt man sich an alles, da nach einiger Zeit ich das Fehlen von AA in der Demo als nicht mehr so schlimm empfand, was u.U. an der nicht so aalglatten Grafik / Texturen wie bei Oblivion liegt.
 
Zuletzt bearbeitet:
Zurück
Oben