Bericht Vorschau: ATi Radeon HD 5850

Status
Für weitere Antworten geschlossen.
Ich hoffe Nvidia bringt seine 300er Reihe noch vor Weihnachten raus dann wirds hoffe ich billiger
 
Ich glaube mal dass sie das kaum schaffen werden, da schon eine Aussagen kamen, dass directx 11 nicht wichtig sei etc..
Obwohl doch Performancesprünge von 17% und mehr möglich sind. Siehe Battleforge.
 
die 17% rechnung stammt von mir und bezieht sich auf folgendes diagramm:

bf1920.png


bei den 17% muss man dazu sagen, dass das gegenüber dx10.1 ist. dx10.1 hat in den bis jetzt verfügbaren games zu einem performance boost um die 20% geführt. alles in allem beläuft sich der performance-boost also auf schlappe realistische 30% gegenüber dx10.0 und das auf der gleichen hardware. andere kommen gar auf bis zu 38%.

das wird auch von einigen anderen tests bestätigt: http://forum.beyond3d.com/showthread.php?p=1339222#post1339222

das man directX-patches aber auch zum performanceverlust nutzen kann, zeigt die bescheidene implementierung von stalker - clear sky. da ist dx10.1 im schnitt langsamer als 10.0.

http://www.pcgameshardware.de/aid,665475/Stalker-Clear-Sky-im-D3D101-Test/Action-Spiel/Test/?page=7
 
Zuletzt bearbeitet:
Dank Nvidia ist die Entwicklung von DX10.1 ausgebremst worden. Find ich echt schade, aber mit den neuen Graka Generation wird das hoffentlich anders. Da sieht man mal was DX10.1 bzw. DX11 bringt.
 
mace1978 schrieb:
...
Es steht mindestens 2 mal im Text, dass das Testergebnis wenn ein Stück unter dem der richtigen Karte sein wird.
Und dementsprechend kann man schon sagen, dass die 285 klar geschlagen wird.
...

... also bitte - klar geschlagen dürfte anders sein - aber mit etwas schneller hast du sicherlich recht ... ;)
 
Fehler bei Riddick - Frames (!?)

Mir ist aufgefallen, dass bei Riddick die GraKas bei 4xAA/16xAF mehr Frames haben, als bei 1xAA/1xAF und zwar bei beiden angegebenen Auflösungen.
Ist das da normal bei dem Spiel, oder handelt es sich um einen Fehler?
 
Hi

das hat mit AA modi zu tun. Wurde schon bei anderen Artikeln hinterfragt. Kurz : ja ist "normal":freaky:

mfg
 
Wenn die richtigen Spiele gebencht werden.
D.h. keine CPU limitierten Spiele. Man nehme Crysis/Crysis warhead/Stalker Clear Sky, dann dürfte eine HD5850 ca 12%flotter als eine GTX285 unterwegs sein.
@ feri81 Ich glaub bei 1xAA wird so ein spradisches Antialiasing (von Spiel) eingeschaltet, das ziemlich viel Leistung kostet.
Ist aber nur ne Vermutung.
 
kommt die noch mit 2GB? und vapor X?
 
naja, die simulation ist meiner meinung nach nicht ganz korrekt ausgeführt worden^^

ihr habt eine hd5870 genommen und siese auf die taktraten der hd5850 gebracht, schön und gut, aber die 5850 hat auch weniger stream prozessoren, deshalb hättet ihr den takt lieber auf ca 700mhz senken müssen um den leistungsverlust noch etwas mit einzurechnen (ich weiss, man kann es nicht genau simulieren, aber ich hoffe ihr wisst was ich meine^^)

trotzdem viele dank für die mühe und den test, man sieht aufjedenfall, dass auch in der kleinen karte eine menge drin steckt! :D

mfg
 
@togepi LESEN

Dazu haben wir einfach nur den GPU-Takt der Radeon HD 5870 auf 655 MHz gesenkt. Aufgrund der 320 5D-Shader- und der 80 Textureinheiten erreichen wir dann ziemlich genau die ALU- und TMU-Leistung der Radeon HD 5850. Der Performanceunterschied zwischen der richtigen und der simulierten Karte liegt wahrscheinlich bei unter einem Prozent. So weit ist also alles noch kein Problem, denn einzig die ROP-Leistung lässt sich mit der Radeon HD 5870 nicht korrekt darstellen.
 
fergi81 schrieb:
Fehler bei Riddick - Frames (!?)

Mir ist aufgefallen, dass bei Riddick die GraKas bei 4xAA/16xAF mehr Frames haben, als bei 1xAA/1xAF und zwar bei beiden angegebenen Auflösungen.
Ist das da normal bei dem Spiel, oder handelt es sich um einen Fehler?

Vielleicht ist der Treiber wieder Benchmark-optimiert... ;)
 
Kann es sein das ihr die Daten vom Riddick Benchmark vertauscht habt?

Weil kann mir kaum vorstellen das alle Grafikkarten im Test ohne AA und AF langsamer sind als im Test mit eingeschaltetem AA und AF.

*edit*

Sorry, hat sich erledigt, grade gelesen das "Wenn man in dem neuen Riddick-Titel Kantenglättung nutzen möchte, schaltet sich automatisch das SSAO-Feature aus. Deswegen sind die FPS-Werte mit vier-fachem Anti-Aliasing höher als ohne AA."
 
Zuletzt bearbeitet:
@ Anti-PhysX-Bashing

ATI-Stream ist genausowenig ein Standard, wie CUDA oder "PhysX". Ich finde es albern einem Engine-Entwickler vorzuwerfen nicht jede proprietäre Schnittstelle zu unterstützen (und ATI Stream ist eben auch proprietär), die es am Markt gibt. Erst mit der aktuell noch nichtmal richtig verfügbaren Grafikkartengeneration (Lieferungen decken immernoch nicht die Vorbestellungen) gibt es für ATI-Karten eine Standardschnittstelle, nämlich OpenCL, und ich finde es vernüpnftig, dass ein Engineentwickler dann auch erst jetzt eine Portierung, nämlich eine auf OpenCL, vornimmt und nicht eine Portierung auf eine proprietäre ATI-Stream-Schnittstelle gemacht hat, die, da OpenCL ja schon seit geraumer Zeit erwartet wird, sowieso zum Tod verdammt gewesen ist. Wenn Nvidia dann auch OpenCL unterstützen wird, was mit der kommenden Generation, die bei Nvidia noch etwas länger auf sich warten lässt, als bei ATI, der Fall sein wird, wird die PhysX-Physik-Engine vermutlich auch bald OpenCL unterstützen - und ich glaube, dass Havok das dann auch tun wird. In Zukunft werden Physikeffekte egal mit welcher Physikengine auch auf ATI-Karten laufen, die Standardschnittstelle OpenCL ist dafür aber Vorraussetzung.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben