ATI HD4870 schneller als NV GTX280

  • Ersteller Ersteller EXTREM
  • Erstellt am Erstellt am
@Lübke

naja, mit PhysiX sind die nvidia karten nomml langsamer, weil sie wieder paar % der perfomance mit Physik rechnung belegen...dann sinds keine 5% mehr,sondern 10%, durchwegs.. und die frage stellt sich noch,ob sich net evt eher Havok rentiert.

zudem bedenke mal,jede cpu, die für eine 4850 zu wenig ist,ist sicherlich auch für eine 8800GTS zu wenig..

sorry,mir leuchtet nicht ganz ein,wieso man eine 8800GTS (wenns net grad mehr als 30euro differenz sind), einer 4850 vorziehn sollte. 8800GT kriegt man ja schon fast 50 euro billiger,das ist wieder ein argument...aber siehs mal so, mit einer 4850 könnte dein cousin immer 2xEdge detect drin haben und wäre ca no so schnell wie die 8800GT, mit leicht besserem bild...

aber es ist wohl ansichtssache, ich geb gern 30euro mehr aus,hab gleiche leistung (in deinem genannten szenario), mit bessere bildqulität.


gruß
 
es sind doch gar keine 30,- €, die karten kosten etwa das gleiche... darum mein ich das mit der alternative...
http://geizhals.at/deutschland/a309035.html
und wenn man zur 4850 ne extra physx-karte kaufen würde, wären das >100,- € mehr...
die 8800gts ist daher imho schon ne denkbare alternative, auch wenn ich in den meisten fällen aktuell zur 4850 rate. aber die unterschiede sind eben nur minimal und jede hat ihre stärken und schwächen.
 
ja werden sie, fragt sich nur wann... sie fangen ja erst jetzt an zu entwickeln. ich erwarte physx bei ati nicht vor dem rv870... veränderungen gibt es dauernd. aktuell unterstütz ati kein physx und wer physx will fährt mit der 8800 besser...
wenn ati auch physx implementiert hat, sieht die welt ja wieder anders aus^^ wer weis, was dann die 55nm-chips von nv machen werden? oder wie überlegen der rv870 sein wird?
aktuell ist physik ein pluspunkt für nv.
 
Die müssen ja "nur" CUDA implementieren, was recht flott gehen dürfte. Also Cat. 8.8 oder 8.9 - sprich Herbst.

cYa
 
na du bist mir ja n optimist^^ das ist für ati ne ganz neue technologie. ich denke außerdem, dass das bei nv hardwareoptimiert ist. nv hat ja schon bei der entwicklung des g80 darauf hingearbeitet. darum wird das imho bei ati ein feature der hd5k sein...
aber warten wird mal ab :)
 
@ Lübke

Woher willst du wissen, dass nV schon mit dem G80 auf PhysX hingearbeitet hat?! CUDA gabs schon davor ...

@ Unyu

TSSAA saugt auch mehr als AAA.

cYa
 
sry, ich meinte eigentlich cuda^^ das wurde im vorfeld zur g80 schon angekündigt...
ich denke schon, dass man sowas hardwareoptimieren kann ;) und das wird ati mit sicherheit ebenso tun. noch ist physx kein muss, also kann ati sich in ruhe um eine optimale implementierung kümmern. wäre sicher klüger als das übers knie zu brechen und was halbgares zu veröffentlichen, wo nv wieder stärker daständ finde ich. meinst du nicht?
 
Um mal beim Thema zu bleiben, ja sie ist schneller, in ein paar games in ein paar settings(vornehmlich den höchstmöglichsten!)

assassinscreed.gif


grid5ey.gif


cod4-1680x1b.gif


www.techreport.com

---


chart_38_mass_effect0u5.png


chart_57_wic_1920_aalrd.png


chart_60_3dmark06_3dmxc.png


also ich würd mich ärgern mit ner GTX280 für 550 euro, wenn ich eines der oben angeführten games zocken würde :evillol:
 
THW sind doch echt voll die Fanboys ... ne HD4870 in WiC schneller als ne GXT 280 ... no way.
btw Mass Effect ohne AA sieht *bäh* aus, wie alle UE3 Spiele ... flimmer flimmer.

cYa
 
Warum immer diese Kinderbegriffe wie "Fanboy"? Versuchen die deutschen Kinder die Amis nachzuahmen?

Wie sieht es mit einem Wechsel von 8800gtx auf HD4870 aus? Bin selbst noch sehr skeptisch, wieso gibt es keine 1024MB Version? Bei 1680x1050 und mehr reicht das aus???
 
ja könnte halt daran liegen, dass sie nur mit 4xAF getestet haben! Wie wir wissen bricht auch die 48X0 serie bei 16xAF noch immer leicht ein(glaub 15-20% weniger leistung während bei Nvidia nur 5-10% verlust sind zu 0xAF). Insofern stimmen diese benchmark werte sicherlich! -Aber dennoch, auch wenn da 16x AF verwendet würde, wäre die 4870 noch immer klar vor der GTX260 die nen hunderter mehr kostet!

Was ich übrigens interessant finde, bei PCGH haben sie nen neuen Test zur 4870 gemacht und sagen zu Mass Effect folgendes:

"1.680x1.050 mit 4xTSSAA/16xAF: Mass Effect
Mit dem Geforce-Treiber 177.34 ließ sich auf der GX2 und der GTX 280 kein Anti-Aliasing nutzen. Mit den gewählten Settings kommt es kaum noch auf die Rohleistung an, einzig die Größe des Video-Speichers zählt. Daher dominiert die GTX 260 das Testfeld, die HD 4870 rangelt trotz nur 512 MiByte mit der deutlich besser ausgestatteten 8800Ultra um den zweiten Platz, vermag aber nicht diese zu schlagen. Die 1.024-MiByte-Version dürfte daher zumindest in UE3-Spielen ein Kracher werden. Alle anderen Karten stellen Mass Effect nicht mehr flüssig dar. Auf der HD 3870 ist der Titel gar unspielbar. AF ist übrigens praktisch "kostenlos”."

interessant oder?
 
AF kostet dich bei UE3-Titeln auf allen getesteten Karten keine 5%. Dafür knallt halt AA alles weg :D

cYa
 
hmm scheinbar limitieren die 512MB Ram mehr als man meinen sollte... eventuell wird doch ne 1GB 4870 in meinen Rechner verbaut, wie geplant...

Wird durch den doppelt so hohen Speicher auch die Performance mit mehr AF/AA verbessert(also in hohen auflösungen im 1600er Bereich) ???

Achja zum Thema AA in UE3 Games: Ich hab Bioshock ohne AA auf 1280er Auflösung angezockt und muss sagen, dass ich kein AA vermisst habe, grade bei den Games glaub ich, ists nicht unbedingt nötig, oder hab ich was an den Augen? Jedenfalls hat mich fehlendes AA bei allen andren Spielen bislang wirklich gestört, nicht so bei Bioshock...
 
@ greentea908

Die Frage müsste eher lauten, wer spielt ohne AA :rolleyes:

@ Vendetta

Sofern AA bedingt, dass der Speicher überläuft, ja - sonst natürlich nicht.

cYa
 
Unyu schrieb:
Schinzie
Ob Blur/Edge Detection für ein hüscheres Bild sorgt ist sehr subjektiv. Faktisch vefälscht es das Bild.
AAA ist schlechter als TSSAA, Details kommen abhanden. http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_19.html#sect0(bei HL2)
AF ist auch schlechter.

Also nochmal zum Thema Bildqualität für 30€. ;)

das edge detect besser, bzw hübscher ist,ist allgemein bekannt. AAA ist nicht schlechter als TSAA, es macht weniger,kostet dafür aber au deutlich weniger..i merg den unterschied fast nur bei 3Dmark.

das einzige wos hinkommt ist af,da aber au nur in synthetischen Tests, im spiel selbst merkste davon nix, ganz im gegenteil zum besseren AA, des merkt man schon.

ja, 30euro würd ich sofort mehr zahlen dafür,allein schon,weil ich die treiber übersichtlicher finde



gruß
 
Was heißt allgemein?
Blurfilter sind nicht nicht vom Spieleentwickler gewünscht, das macht man normal mit extra Features.
AA hat die Aufgabe zusätzliche Informationen ins Bild zu bringen, nicht die vorhanden zu vermischen.

Ich sehe keinen Grund für Blur, wenn doch lasse ich den TFT interpolieren, ist billiger ....
Stimmt TSSAA kostet, aber es ging ja um BQ, zur Not gibts ja den Sparmodus TMSAA.
AF: also wenn die Texturen unterfiltert werden kann das schon ins Auge stehen.

Übersichtliche Treiber? Ja das alte Panel war noch toll, jetzt ists grauenvoll (ein Blick ins CCC macht mir auch wenig Spass), aber hey das panel brauche ich nur kurz um die Bildschirme einzustellen, dann ists gut.
 
Zurück
Oben