4870 unbrauchbar für Spiele mit Unreal Engine?

Scheinweltname

Lt. Commander
Registriert
Jan. 2008
Beiträge
1.743
Ich hab mir gerade erst eine 4870 gekauft, als Ersatz für meine 3870, und zwar, weil ich Unreal Tournament 3 auf vollen Details ohne jegliche Ruckler spielen wollte ...

Beim ersten Spielen war ich sehr sehr enttäuscht: Die 4870 bringt kaum 10 frames mehr als die 3870 :eek: und bricht an Stellen sogar stärker ein als die 3870, sodass ich stellenweise tatsächlich weniger als 40 frames habe ... und zwar immer dann, wenn zwei oder mehr andere Spieler im Bild sind. Und das, ohne CCC, d.h. also minimale treiberseitige Verbesserungen, kein AA und AF nur durch das Spiel. (mit CCC und alles auf "leistung" bringt die gleichen Werte).

Auf der anderen Seite haben sich die Frames bei Devil May Cry 4 teilweise mehr als verdoppelt (was gegen eine Limitierung durch die CPU spricht, oder), sodass ich ~100frames habe, statt 50 mit der 3870; und das mit 16xAA, 8xMSAA.

Treiber ist der von der CD (Sapphire), mein Netzteil ist groß genug, beide Stromanschlüsse sind dran ...

Hat jemand in Unreal Engine Spielen die gleiche Erfahrung gemacht? Ists ein Treiberproblem?

Edit: Die Werte aus dem CB-Benchmark kann ich etwa reproduzieren; im Flyby zwischen 140und 190, im Spiel selbst ca. 110 ... aber wie aussagekräftig ist eine Deathmatch-Karte? Auf Torlan erreicht die 4870 nur durchschnittlich 60frames; genausoviel wie die 3870 ... ich bete dafür, dass das nur ein Treiberproblem ist...

+ habt ihr auch so extreme fps-Einbrüche von teilweise 40 frames oder mehr von einer Sekunde auf die andere?

Achso: Mass Effect und CoD profitieren von der 4870 in meinem System ebenfalls gar nicht oder mit max. 5-10 frames ... *TreiberProblemBete*
 
Zuletzt bearbeitet:
Mit einer HD4870 läuft UT3 einwandfrei, ich benche das seit Tagen mit dem 8.7-beta ingame mithilfe eines Botmatches. Wechsel mal den Treiber.

cYa
 
Selbst schuld wenn du die Werte von CB nimmst. Wer hat schon so ein "Testsystem" daheim.
 
y33H@ nix da, zum Bechnen sind sie gut, aber zum Zocken ne, war bei mir auch so, wenn da Online ordentlich was los ist, pfreifen die ATI aus dem letzten Loch.
Darum habe ich wieder Nvidia, da sind die Games einfach flüssig, auch framedrops sind nicht vorhanden.

Meiner Meinung nach taugt ATI nur zum Benchen, in der Praxis wurde ich leider eines besseren belehrt.
Arbeitskolege hatte damals die gleichen Erfrahrungen gemacht mit seiner X2.
 
hast du bei cod deine framegrenze (com_maxfps) von standart 85 mal umgestellt vlt liegts daran oder vertikale synchnisation muss auch aus sein, und du solltest die herzzahl nach möglichkeit auf 75 stellen
 
MöCkY schrieb:
....
Meiner Meinung nach taugt ATI nur zum Benchen, in der Praxis wurde ich leider eines besseren belehrt.
.....
Merkst aber schon das du Stuß redest, gell?
 
@GaTeXx : standard; hertz

@Scheinweltname: lad dir den den aktuellen beta treiber runter, davor aber den treiber komplett entfernen z.b. mit cccleaner.

@Turbostaat: ne redet er nicht, mit ATI kann man besser benchen, mit Nvidia zocken.
 
ok, Unreal Tournament 3 nochmal mit Catalyst 8.7beta getestet ... subjektiv eine handvoll frames besser, aber trotzdem verhält sich die Karte übel merkwürdig:

CCC alles auf aus oder minimal gestellt, Maxanisotropie=1 in UTengine.ini (ansonsten max. Details @ 1680x1050): auf Torlan mit 32bots effifzient zwischen 55 und 70 frames.

Mit maximalen Einstellungen im CCC (8xAA, 16AF, max mipmap) 40-60
Und: auf 1280x960: gleiche frames(!) :eek:

What the hell???

Egal was ich einstelle, es ist NICHT möglich, die frames konstant über 60frames zu halten ...

ich bin sowas von enttäuscht ... nehmen Einzelhändler Karten mit dem Argument zurück, dass die Karte schwächer ist, als gedacht?

@Straßdörfler und MöCkY: Der "benchmark" von CB stammt direkt aus dem Spiel :D, also kein synthetischer Benchmark oder spielfremd; ist halt bloß das spectator-fly-by anstatt direkt im Shootout

@GatexX: in der CoD-Demo erreiche ich an keiner Stelle die 80frames-Marke; zwischen 50 und 70 krieg ich nur (exakt soviel wie mit 3870).
 
Zuletzt bearbeitet:
ich habe mir ati 4870 zugellegt und ut3 leuft sogar besser als mit meiner nvidia 8800gts
und alles andere leuft auch flüssiger ;)
 
@ MöCkY

UT3 ist ne nV-Bank, das seh ich an meinen Benches selbst. Mit mehr als 10 Bots auf ner großen Map sind in 1.680 mit 4xAA/16xAF mit meinem E8200 @ 3,67 GHz und einer HD4870 halt nur knapp 50 Fps drin, zudem sackt es gerne Richtung 30 Fps. Flüssig ist das freilich nicht, aber spielbar. Ne GTX 280 ist 20-30% flotter.

@ Scheinweltname

Konstant über 60 Fps packst du mit den Settings mit KEINER Karte. Zock 1.680 mit 2x/16x, imo ist das der beste Kompromiss aus Optik und Fps.

cYa
 
Zuletzt bearbeitet:
y33H@ genau und wer Spielt online mit nur 10 leuten meist sind das um die 20.

Turbostaat ich rede keinen Stuß, dass sind eigene erfahrungen, habe mich selber lang genug damit zumgequält.
Und wie willst du bitte persönliche Erfahrungen als Unsinn hinstellen?
Zudem gibt es ja mehr Leute mit den Problemen, na merkste was?

Ich habe das nicht rumerzählt, warum sollte ich auch?
Wollte nur meine Erfahrung kund tun.

Mit den Hd2900 konnte man sowas nicht beobachten.
 
y33H@ schrieb:

@ Scheinweltname

Konstant über 60 Fps packst du mit den Settings mit KEINER Karte. Zock 1.680 mit 2x/16x, imo ist das der beste Kompromiss aus Optik und Fps.

cYa

mag sein ... aber was mich so unglaublich irritiert ist, dass es für die frames keinerlei Unterschiede macht, ob ich die Auflösung ändere, AA ausmache oder anmache, AF ausschalte ... ich habe immer (fast, +-10) die gleichen frames ... was ja im Prinzip toll ist... gleiche frames bei maximaler Bildverbesserung ... aber gerade bei UT3 will ich gern drauf verzichten, um über 60fps zu bleiben ... geht aber nicht ...

Gibt es die Möglichkeit, dass Anti-Aliasing immer aktiviert ist? Denn das würde erklären, warum sich die frames kein Stück ändern, wenn ich es explizit aktiviere ...

Und warum es nie besser aussieht, egal, ob laut CCC an oder aus ...

Ich habe z.B. bei Mass Effect auf 1680x1050 bei 8xAA, 16AF und MipMap max ca. 45frames ... bei 0xAA, 16AF das gleiche ...

edit: ich teste jetzt mal mein 3. Unreal Engine-Spiel, Bioshock (dx9)
 
Zuletzt bearbeitet:
AA funzt nicht bei der UT3 Enginge.
Jedenfalls war das mal so.
 
ok, die Performance bei Bioshock unter dx9 beeindruckt mich.

Mit 8xAA (boxed), 16XAdaptiveAA, MipMap max, 16xAF, Max details, 1680x1050 habe ich mindestens 80 frames; und das AA sieht man wirklich äußerst deutlich! (was also meine Vermutung widerlegt, dass AA vielleicht immer an sein könnte...) ... krass, damit habe ich 20 frames mehr als GTX260 SLI unter dx10 bei nur 4xAA :eek: ... oder hat CB nen besonderen Bench benutzt?

Thema Anti-Aliasing: Sieht jemand auf diesen Photos unten irgendwelche Treppen? Bioshock sieht so aus mit spielbaren 40-70 frames :eek:.

(ohne (A)AA, aber mit 16xAF und mipmapmax hab ich teilweise 120frames+ :eek:, d.h. knapp doppelt so viel wie im CB-Test unter Vista...

ok, ein bisschen revidieren muss ich das ... es gibt Stellen, da fallen die Frames auf 30 (wobei das OHNE Adaptive AA noch schlimmer ist [!sic] (?))... überwiegend liegen sie aber zwischen 45 und 70.

Warum, oh Schöpfer (ATi) muss aber gerade die Performance bei UT3 so dermaßen wenig von der 4870 profitieren, oh warum??? Dabei war UT3 quasi der Kaufgrund für die Karte ...
*schnüff*
 

Anhänge

  • Bioshock 2008-07-15 23-13-42-82.jpg
    Bioshock 2008-07-15 23-13-42-82.jpg
    212,8 KB · Aufrufe: 395
  • Bioshock 2008-07-15 23-22-04-90.jpg
    Bioshock 2008-07-15 23-22-04-90.jpg
    285,6 KB · Aufrufe: 414
  • Bioshock 2008-07-15 23-15-56-00.jpg
    Bioshock 2008-07-15 23-15-56-00.jpg
    243,1 KB · Aufrufe: 369
Zuletzt bearbeitet:
Du kannst mit 16xAA keine 80 Fps haben. Hast du MaxMultisamples=16 in der ini-File stehen und 16xAA zusätzlich via Treiber erzwungen und die ME.exe in UT3.exe umbenannt? Sonst geht AA nicht.

cYa
 
y33H@ schrieb:
Du kannst mit 16xAA keine 80 Fps haben. Hast du MaxMultisamples=16 in der ini-File stehen und 16xAA zusätzlich via Treiber erzwungen und die ME.exe in UT3.exe umbenannt? Sonst geht AA nicht.
me.exe in ut3.exe? hä?

es kann sein, dass ich in UT3 kein AA hab, weil da macht das Einstellen des AA im Catalyst CC subjektiv keinen optischen Unterschied

Aber bei Bioshock war defintiv alles an, was ich geschrieben hab, was sich auch optisch deutlich gezeigt hat. und die 80frames hatte ich im Level "Medical Pavilion", wenn auch zugebenermaßen nur in engeren Räumlichkeiten; ansonsten durchschnittlich 50frames (was immernoch beeindruckend ist!)
 
Um AA zu aktivieren, muss es in der Engine.ini stehen.

cYa
 
MaxMultisamples hab ich ja auch kapiert und versuchsweise mal auf 16 geändert ... AA hat aber nicht funktioniert ... weil die .exe die falsche war?

Die einzige Möglichkeit, ein halbwegs hübsches UT3 mit konstant über 60fps zu spielen ist world details auf 2 (statt 5) zu reduzieren ... aber ich frag mich, ob das nicht auch mit der 3870 funktioniert hätte ...

Fakt ist jedenfalls: Bei UT3 versagt die 4870 völlig ... jedenfalls wenn man sie am Vorsprung zur 3/4 jahr älteren und nur halb so teuren 3870 misst ... (=die 3870 liefert die gleichen fps wie die 4870, jedenfalls auf allen warfare-Karten, und auf allen anderen Karten lag auch die 3870 immer jenseits der 60fps)
 
Zuletzt bearbeitet:
MöCkY schrieb:
y33H@ nix da, zum Bechnen sind sie gut, aber zum Zocken ne, war bei mir auch so, wenn da Online ordentlich was los ist, pfreifen die ATI aus dem letzten Loch.


Das ist mitunter der Größte Stuss den ich jemals gelesen hab...
 
Echt mal, so ein Blödsinn, Leute sind zu blöd Treiber richtig zu installieren und dann solche Meinungen, unfassbar.
Glaubt ihr wirklich alle Medien würden die aktuellen Karten in den Himmel loben wenn sie so schlecht wären? Die haben alle schliesslich auch Spiele getestet und komischerweise gibts genug Leute bei denen es klappt und die keine Probleme haben.
 
Zurück
Oben