Bericht Vorschau: ATi Radeon HD 5850

Status
Für weitere Antworten geschlossen.
Ich denke auch, dass ich meine 4870 in Rente schicken werde! Schon alleine wegen dem hohen Idle Verbrauch!

Was ATI da auf den Markt wirft ist der Hammer! Wenn man da an Früher denkt, HD 2900xt und die 3xxxx Reihe!

Freue mich für ATI!

Trotzdem bin ich schon gespannt auf Nvidias Antwort :)
 
l33 schrieb:
Techpower up hat das ganze mit deaktiverten SIMD`s gemacht dieser Test ist mehr wie Ungültig. :)

und wieder einer der den text nicht richtig gelesen hat
es wurde doch gesagt das ein test der richtigen 5850 kommt wenn testsamples da sind
dieser test soll nur einen ausblick auf die ungefähre performance geben
 
Trotzdem denke ich, dass es für NV ein großes Problem sein dürfte!

Die meisten werden auf den 58xx zug aufspringen vorallem in dem bald startenden Weinachtsgeschäft! Wenn dann mal alle mit ATI Karten versorgt sind, wage ich zu bezweifeln, dass sich dann die Leute schon bald darauf wieder ne NV Karte kaufen werden selbst wenn die Leistung höher sein wird!
 
Joh@nnes schrieb:
Der Test mit Cryostasis ist doch total schwachsinnig....

Schwachsinnig finde ich eigentlich nur Posts, die was in den Raum stellen, ohne auch nur ansatzweise eine Begründung abzuliefern.

Also, warum ist der Test mit Cryostasis total schwachsinnig?
 
devilinside schrieb:
Wie sieht es mit dem Übertakten aus?
Habt ihr das auch getestet oder wurde es wegen den schlechten Ergebnissen der 5870 weg gelassen?

Eine auf HD5850 runtergetaktete HD5780 übertakten?! Klingelts da auch bei dir, dass das totaler Schwachsinn wäre? :rolleyes:


@Cryostasis
Ich finde Cryostasis auch ein schlechter Spiele-Benchmark. Nur weil's sinnlos Gebrauch von Physx macht und damit auf keinem PC ohne NIVIDA Grafikkarte mit Physik-Effekten anständig spielbar ist.. Denn selbst ohne Physx ist die Performance dermassen grottig, dass es erst ab einem 4 GHz Quadcore wirklich flüssig läuft.. Letztendlich soll ein Grafikkarten-Benchmark auch die Grafikkarte belasten und nicht den Prozessor.
Wenn schon Physx dann Mirror's Edge.

Generell bin ich aber gegen den Einfluss von proprietären Schnittstellen in einen Grafikkarten Benchmark. Das verzerrt das Bild doch ziemlich stark und hat letztendlich nicht direkt was mit der Spieleleistung zu tun, sondern eher mit einem "Feature"-Test..
 
Zuletzt bearbeitet:
Ratterkiste schrieb:
und wieder einer der den text nicht richtig gelesen hat
es wurde doch gesagt das ein test der richtigen 5850 kommt wenn testsamples da sind
dieser test soll nur einen ausblick auf die ungefähre performance geben

und wieder einer der meinen Post nicht richtig gelesen hat oder ihn nicht verstanden hat,

Techpowerup hat das ganze um einiges genauer genommen hat den Cypress XT zum LE gemacht , die haben die SIMDs deaktiviert!

We simulated the performance of the HD 5850 by taking our HD 5870, reducing the clock speeds and disabling two SIMDs, which results in exactly the same performance as HD 5850.

Es gibt noch einen Unterschied und das sind nun die RAM timings ! was sich sicherlich nur marginal auswirkt auf die Performance.

Ich schätze die Arbeit von CB , allerdings sollten solche sachen extrem ernst genommen werden wenn man sich bei der gewählten TAKT rate verschätzt ,(man sieht einige Leute hier im Forum schreiben die dann fragen ÜBERTAKTEN???, das sind die die nicht richtig lese... genau deswegen! würde die Karte ein schlechtes bild auf den USER werfen, es kann keiner wissen wieviel die shader bei welcher Anwendung bzw Engine sich auf die Performance auswirken!

http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/3.html
 
Zuletzt bearbeitet:
Und schon wieder dieser Fehler:
Es gibt schlicht und einfach keinen RV870, der Chip heißt Cypress.

Wieso kapiert ihr das nicht?
Der Name RV870 wurde von der Presse erfunden und wurde NIE von AMD Bestätigt.
 
TalBar schrieb:
nvidia muss sich dick anziehen

und wieso? weil eine high-end-karte der "alten" generation nur noch auf dem niveau einer performance-karte der "neuen" generation is?

seh ich jetzt nicht so tragisch - denn effektiv abgerechnet wird erst, wenn der GT300 irgendwann mal erscheint

bis dahin wirds nvidia sicherlich schwerer haben karten zu verkaufen (solange keine deutlichen preissenkungen stattfinden) - aber selbst wenn die GTX285 auf "nur" 200 € fallen würde, gäbe es sicher noch genug käufer für diese karte
 
l33 schrieb:
und wieder einer der meinen Post nicht richtig gelesen hat oder ihn nicht verstanden hat,

Techpowerup hat das ganze um einiges genauer genommen hat den Cypress XT zum LE gemacht , die haben die SIMDs deaktiviert!

We simulated the performance of the HD 5850 by taking our HD 5870, reducing the clock speeds and disabling two SIMDs, which results in exactly the same performance as HD 5850.

Das ist zwar genauer (wie deaktiviert man die SIMDs eigentlich?) aber dennoch sollten die CB Benches nur gelegentlich im einstelligen Prozentbereich abweichen. Das macht im Gesamtrating weniger Unterschied, als die Auswahl der getesteten Spiele. Zumal wird ausdrücklich auf ein simuliertes Preview hingewiesen. Ich persönlich finde das nicht schlimm und es wird auch niemandem zum Nachteil. Das hier einige nicht lesen können...nunja, dazu muss man nix weiter sagen.

Toxicity schrieb:
Und schon wieder dieser Fehler:
Es gibt schlicht und einfach keinen RV870, der Chip heißt Cypress.

Wieso kapiert ihr das nicht?
Der Name RV870 wurde von der Presse erfunden und wurde NIE von AMD Bestätigt.

So ist das nunmal, da erfindet jemand einen Spitznamen, und alle benutzen ihn, auch wenn er nicht offiziell ist. War schon immer so, wird immer so bleiben. Und irgendwann landet er dann im Duden, und ist damit doch offiziell anerkannt ;) Darüber muss man sich nun wirklich nicht aufregen.
 
Ergänzung ()

wie die das genau gemacht haben weis ich nicht allerdings ist ja PowerTechup bekannt für krasse Tool`s :) bios editoren und und und ,vermutlich mit dem Riva tuner vieleicht lässt sich auch der Cypress LE wieder rückgangig machen zum Cypress XT quasi die deaktiverten Shader wieder aktivieren wenn JA wäre es ein Burner ein verkaufsschlager :D gabs doch damals schon bei der 7000 Reihe bei NVdia
Ergänzung ()

wie gewohnt wird nvidia was schnellere bringen , allerdings wird nvidia ´s Highend segiment auch eine Stange Geld kosten , ich weis nicht wie sich Nvidia sich über wasser halten möchte denn der meiste Umsatz liegt im Bereich der 5850 oder drunter, schon die GT200 serie war doch sehr Kostenintensiv und es musste ein chip upgrade her weil es Probleme gab.

I muss sagen das ATI sich wieder gefangen hatt die alte zeit der HD 2xxx und 3xxx sind vorbei. Gut so AMD bitte noch anständige CPU´s bauen dann brauch ich mir kein INTEL kaufen ;-)

ich schauh gerade in mein GlasKugel und sehe ein HD5890 mit Direct X11.1 :cool_alt:
 
Zuletzt bearbeitet:
Bei der 5850 sind sie wohl per Lasercut deaktiviert, da wird nix mit Software freischalten.
 
"Unteroberklasse"? Bitte - was soll das sein?

Ich schließe mich auch den wenigen an, die den Test für mehr oder minder wertlos (wenn auch nett zu lesen) halten. Durch "Untertakten" die zwei nicht deaktivierten SIMDs auszugleichen ist meiner Meinung nach Pfusch, weil ich ehrlich gesagt nicht viel schlauer bin als vorher - weil man eben nichts Exaktes weiß. Grob gesagt ist das hier nichts anderes als Spekulation.

Mir wären handfeste Fakten lieber, dafür warte ich gerne noch ein paar Tage auf den "echten" Test, hinsichtlich des Wahrheitsgehalts war der hier irgendwie Zeitverschwendung.
 
Zuletzt bearbeitet: (rsf)
digitalangel18 schrieb:
Bei der 5850 sind sie wohl per Lasercut deaktiviert, da wird nix mit Software freischalten.

von wo nimmst du diese Information? evtl auch aus einer Glaskugel?:D
 
Toxicity schrieb:
Und schon wieder dieser Fehler:
Es gibt schlicht und einfach keinen RV870, der Chip heißt Cypress.

Wieso kapiert ihr das nicht?

Weil mit "Cypress" keiner was anfangen kann. Da kann AMD sich auf den Kopf stellen, aber rein logisch ist RV870 richtig, in Analogie zu RV770 und RV670. RV870 hat viele Einheiten des RV770 verdoppelt und bringt DX11, womit der Chip das R und die 870 verdient hat. Da der Chip auch wieder auf 256-Bit-Interface setzt, hat der Chip auch das V verdient.
 
l33 schrieb:
von wo nimmst du diese Information? evtl auch aus einer Glaskugel?:D

a) weil das seit jahren immer so gehandhabt wird, und b) weil ichs heut in irgend einem review gelesen hab :D weiß leider nichtmehr wo, evtl drüben bei ht4u.de ;)
 
Bin dann doch eher auf den richtigen Test gespannt, obwohl die mühe dafür immer lobenswert ist.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben