Bericht Vorschau: ATi Radeon HD 5850

Status
Für weitere Antworten geschlossen.
Hab mal bei den Tests zwischen 4770 und 4850 gesehen, dass manche Spiele eher auf einen hohen Takt stehen und wieder andere auf eine hohe Shaderzahl. Also wird die echte 5850 manchmal besser und manchmal schlechter abschneiden als hier . . .
 
Kann man bei diesem Cryotas blablba....
Nicht einfach Physix abschalten?

Mfg Sp3cial Us3r

Netter Test,aber ich warte auf den richtigen Test
Eine HD5850 mit 512MB wäre nicht so schlimm,gibt genug Leute noch mim 19"
Nartürlich sind 1GB besser aber ich glaube eine 512MB Karte wird es nicht geben,gab aber Gerüchte bzw es gibt sie noch:D
 
Wen die ein Volterra hat bekommt man die bestimmt auf HD5870 Leistung .
Ich warte aber lieber mal den richtigen test ab .
 
Wie viel Strom verbraucht denn die simulierte HD5850?

Allgemein würde mich mal interessieren ob man sich Low-3D-Profile erstellen kann, die dann z.B. den halben Takt (und entsprechend weniger Leistung) haben und ob das dann wirklich den Verbrauch senkt.

Für CoD4 würde mir z.B. die Leistung meiner 8800gt reichen, für Crysis Warhead in höchster Qualität aber weniger.
 
@Sp3cial Us3r: klar kann man physx abschalten, aber ich denke mal die absicht von wolfgang war es, einen titel mit physx im pacours zu haben, damit auch das berücksichtigt ist. denn defacto gibt es ja ein paar physx-spiele und von daher finde ich das ligitim.
was anderes wäre es, wenn man z. b. die hälfte der tests mit physx-spielen machen würde, das würde das gesamtbild zu gunsten von nvidia verzerren. das gleiche wird ja mit dx gemacht: cb hat immer ein ausgewogenes verhältnis von dx9 zu dx10 titeln, wobei die zahl der dx9 titel mit der zeit abnimmt, was ja auch der tatsächlichen marktentwicklung entspricht.
imho sollte man weder dx9 noch physx aus solchen pacours ganz ausschließen, wenn man ein realistisches gesamtbild haben will.
 
Die hd5870 hat zwei volterra-spawas. Und auf dem pcb ist noch platz für weitere. von amd gibts ein Tool, mit dem man Spannungen und Taktraten der hd5k-reihe ändern kann. Gerüchten zufolge sollen ja alle GPUs die Kilohertzgrenze knacken. Ich such mal die Links dazu... :mussweg:
 
Die hd5870 hat zwei volterra-spawas. Und auf dem pcb ist noch platz für weitere. von amd gibts ein Tool, mit dem man Spannungen und Taktraten der hd5k-reihe ändern kann.

Beinhaltet das auch ein Untervolten? Übertakten (mit Spannungserhöhung) brauch ich persönlich nicht.

Danke.
 
Ein 18-Seitiges "kleines Performance-Preview" - beeindruckend:)

Ich finde die neuen Karten erwartungsgemäß zufriedenstellend aber nicht überragend.

Allerdings wird in Nvidia in der Zeit vor der eigenen neuen Generation massivst Probleme bekommen - selbst wenn sie die Preise anpassen wird wohl kaum jemand z.B. eine "Veraltete" gtx285 Kaufen wenn die "neue" 5850 für unter 200€ erhältlich ist, außer der Preisunterschied beträgt mehr als ~50€, was ich mir nicht vorstellen kann.

Nvidia hat aber auch den Vorteil, dass ihnen die Leistung des Konkurrenten bekannt ist und sie noch vor dem eigenen Release darauf reagieren können. Im Gegensatz dazu könnte ATI/AMD von den neuen Nvidia Karten völlig "überrannt" werden, falls Nvidia überraschenderweise noch einen Trumpf in der Hinterhand hat.

Gruß,tXX
 
PediM² schrieb:
"Die Radeon HD 5850 ist dann 26 Prozent langsamer als die Radeon HD 5870"

Bei diesen Prozent Angaben könnt ihr nochmal die Matheschulbank drücken.

Wenn ihr die HD 5870 als Basis hernehmt ist die HD5850 bei 1920x1200 21% langsamer.
Erreicht als die 0,79 fache Leistung der HD5870. Bezieht man sich auf die HD5850 dann arbeitet die HD5870 26% schneller als die HD5850.

Danke Pedi.
Es macht wenig Sinn bei einer Formulierung wie A ist x% langsamer als B, A als Basis für 100% zu nehmen. Gesetz den Falles A bringt 0,25 mal die Leistung von B, würdet ihr dann schreiben, A ist 300% langsamer als B? Klingt blöd und verwirrend, oder?

oykoi schrieb:
Aber, auch ich hätte nicht gedacht, dass diese "kleine" Taktsenkung eine knapp 20-25%igen Abstand zu einer HD5870 führt...

Wieso? Zeigt doch nur wie gut Takt skaliert, wenn keine anderen Flaschenhälse da sind, nämlich nahezu 1zu1.
23% weniger Takt für SPUs, TMUs, ROPs, 21% weniger FPS.



Zum Test der simulierten 5850 bleibt festzuhalten, dass in 3 Punkten die simulierte Karte dem realen Pendant hinterhinkt:

1. Die schon häufig genannte 10% geringere Pixelfüllrate und Z/Stencil-Leistung der simulierten Karte. (Dürfte noch die größte Auswirkung haben)

2. Eine etwa 20%höhere Latenz, als benötigt und wohl auch als die reale 5850 haben wird, durch das Heruntertakten (um etwa 17%) des für 2400MHz ausgelegten Speichers.

3. Die niedrigere Taktung von Shader und Co als bei einer realen 5850.
Die theo. Rechenleistung in flops bleibt zwar gleich, da die simulierte 5850 dementsprechend mehr SPUs hat, aber weniger Shader auf höherem Takt (reale Karte:1440@725MHz) lassen sich immer besser auslasten, als mehr Shader auf niedrigerem Takt (simulierte Karte:1600@655MHz).

Insgesamt würde ich im Schnitt fast 5% Leistung mehr von der realen Karte erwarten.

Gruß
Raubwanze

PS: Danke für den Test
 
Zuletzt bearbeitet:
Jetzt lasst doch die Karte erst einmal kommen, bevor hier heftig über die Leistung dieser diskutiert wird, das macht doch keinen Sinn. Die haben es nur gut gemeint und wollten zeigen, wo die Karte sich einordnen wird, ob es jetzt 5 oder 6% sein werden, ist doch egal, die echte Leistung der Karte, werden wir schon erfahren, wenn es so weit ist.;)
 
TripleX21 schrieb:
Wie viel Strom verbraucht denn die simulierte HD5850?

Die Zahl wirste komplett vergessen können, da die "richtige" ja weniger, dafür schnellere Steam-Prozessoren haben wird als die Simulation hier. Zudem kennt niemand die Idle-Spannungen und -Taktraten. Ich rechnet damit, dass idle in etwa das gleiche wie bei der 5870 herauskommt und unter Last um die 15% weniger (also weniger Einsparung als der Leistungsverlust).
 
Ich finds trotzdem falsch Physx-Titel mit reinzunehmen.
Schließlichist directx11/10.1 ein etablierter Standard und das andere ist ein unsinniges Feature um Käufer zu angeln.
Dass CB das unterstützt finde ich ehrlichgesagt schlecht.
Klar muss man das auch mal gebencht haben, aber doch nicht in einem Performancerating das representativ ist.
Niemand spielt Physx mit einer ATI Karte.
Ich schätze die HD5850 ungefähr ca 5% vor einer GTX285 ein. Ziemlich knapp.
Also dürfte die Spanne zwischen HD5870 und HD5850 im Preis doch etwas größer sein.
DAs Gesamtbild wird natürlich nicht sehr stark verzerrt, aber doch um einiges.
Um 5% wirds sicherlich verzerrt.
 
Zuletzt bearbeitet:
nfszocker schrieb:
Jetzt lasst doch die Karte erst einmal kommen, bevor hier heftig über die Leistung dieser diskutiert wird, das macht doch keinen Sinn. Die haben es nur gut gemeint und wollten zeigen, wo die Karte sich einordnen wird, ob es jetzt 5 oder 6% sein werden, ist doch egal, die echte Leistung der Karte, werden wir schon erfahren, wenn es so weit ist.;)

Wieso?
Kaffeesatzleserei ist ein großes Hobby in Foren... :evillol:
 
@ Schaffe89

DX11/DX10.1 ist (noch) genauso viel/wenig etablierter Standard wie GPU-PhysX. Beides bietet im Retail-Markt nämlich nur ein IHV. Zudem: Es sind gleich drei (3) DX10.1-Titel dabei, aber nur ein (1) GPU-PhysX-Titel! Wenn, dann ist ja wohl eher NV benachteiligt ... aber das sieht ja keiner so :rolleyes:
Schaffe89 schrieb:
aber doch nicht in einem Performancerating das representativ ist.
Ein Rating ist immer nur repräsentativ für das, was getestet wird. Und das ist es im Falle von CB. Und dank drei DX10.1-Titeln stehen die Radeons gar besser dar als in manch anderem Rating.
 
Schöne Karte aber mit knapp 30% der 5850 bzw. 65% der 5870 lohnt sich ein Umstieg von meiner OC´d 4870 nicht wirklich.
 
boar Leute,

was ist denn hier los, irgendwie sind hier einige nicht wirklich gut gelaunt ....

flamen hier bös rum.

mir ist es schon fast wurscht, hauptsache schneller - uuuundd warten bis ein passender Kühler kommt *G*

die standard dinger kann sich ja keiner antun

mit cypress kann man wirklich wenig anfangen, gerade dann, wenn man einem das mit den Grakas mal näher bringen will.
Kenn genug, ...
(BEISPIEL) bei denen eine 9400 GT mit 1024 MB schneller ist, als ne 8800 GT mit 512 MB



Gruß
 
Schließlichist directx11/10.1 ein etablierter Standard und das andere ist ein unsinniges Feature um Käufer zu angeln.
etablierter standard? ich glaub es gibt derzeit mehr physx-titel als dx10.1 und dx11-titel...
und im mom würde ich dx10.1 von meiner 3850 gerne gegen physx eintauschen, da es derzeit mehr nutzen bringt und wohl bis zum erscheinen der ersten dx11-titel eine neue karte bei mir im rechner werkelt ;)

zwar wird auf lange sicht vermutlich dx11 sich dursetzen (m$ hat viel zu viel macht, als dass es ein offener standard oder ein anderer anbieter schaffen könnte) aber aktuell ist die unerstützung für cuda und physx durch existierende spiele und anwendungen größer (sprich stärker etabliert). und darum gehört sowas imho auch mit in einen test, der ein komplettes bild wiedergeben soll. auch wenn ati hier ausnahmsweise mal nicht punkten kann (was sie ja auch gar nicht wollen, denn sie hätten es ja implementieren können...). aber soviel fairnis muss schon sein.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben