Test Test: AMD Radeon HD 7870 und HD 7850

Die HD 7870 ist der HD 7950 sehr nah auf den Fersen. Im Schnitt ist die HD 7950 ca. ~10 % schneller. Da würd ich lieber zur HD 7870 greifen.
 
PiPaPa schrieb:
Vermutlich hätte AMD die HD 7870er Karten für 150€ verramschen können, du hättest irgendeinen Pseudogrund gefunden die Karten schlecht zu machen (mimimimi PhysX, Cuda fehlt, nicht zu gebrauchen )
Mach dich nicht lächerlich. Für 150€ wäre es ein gutes Angebot, es darf ruhig mehr sein. 300€ für Mittelklasse ist nunmal viel, verglichen mit den teils 2,5 Jahre alten Angeboten für High-End.

PiPaPa schrieb:
Auf der einen Seite hast du über die schlechte BQ von ATi/AMD gemeckert und wurde als pro nvidia Argument geführt, jetzt ist diese laut Tests auf nvidia Niveau und es wird jetzt mit Phrasen abgetan... Soll man dich noch ernst nehmen? Ich mach es nicht mehr.
Wie kann etwas, was auf Konkurrenzniveau ist für einen Hersteller als Argument genommen werden? Es ist da und fertig.

Abseits davon, schlechter ist es immernoch, anstatt es gleich richtig zu machen, aber davon rede ich doch nicht. Willst du ernsthaft die H7 wegen dem AF als Aufrüstgrund zur HD5/6 nennen? Lächerlich, denn so Jemand hätte nie eine HD5/6 gekauft. Vielmehr wäre es ein Grund von Nvidia mal umzusteigen, also los ich erwarte jetzt GTX 560 Preisvergleiche.

Wintel schrieb:
AMD hievt das AF auf Nvidia Niveau, baut SGSSAA optional in den WHQL Treiber ein und setzt mit automatischen LOD @ directx 10/11 noch einen drauf und überbieten Nvidia bei diesem Feature, aber das ist dir als BQ Fetischist natürlich entgangen.
Demnach rechtfertigt SSAA @ D3D10/11 denn hohen Preis? Sehr interessant, den die GTX 560 Ti ist nicht derart teuer gestartet.

Wintel schrieb:
Und ja...klar die Preise sind gesalzen, aber auch aktuell gerechtfertigt, wenn man zur Konkurrenz schielt.
Nvidias Konkurrenzprodukte aka Kepler werden auch wahrscheinlich nicht billiger werden, das gibt eben der derzeite Prozess und die Verfügbarkeit nicht her.
Nochmal für dich: Die 5870 ist für 350€ gestartet, das Topmodell ohne Konkurrenz. Die 7870 ist weder Topmodell, noch ohne Konkurrenz (z.b. der 6970).

Wenn Kepler genauso teuer starten solte ist das genauso mies.

Amboss76 schrieb:
Jetzt wird es absolut grotesk, Das X1000er AF war den 7er Nvidias (schlechter ging es nicht mehr) haushoch überlegen und hielt sich bis zur HD6er Generation, wurde aber schon früh vom Nvidia G80 übetroffen, deswegen war das ATI-AF trotzdem nicht schlecht, jetzt ist es nur besser und praktisch gleichauf mit Nvidia.
Das HD2 AF war dem X1000er AF unterlegen und lange vor der X1000 gab es schonmal gescheites AF. X1000er Niveau ist kein Grund zum feiern, das war dringend nötig und ist gut wenn es dies endlich gibt.
 
Wow! Sieht bis auf den Preis super aus. Da fehlt halt eine vernünftige Konkurrenz.

Aja, für die Leute, die sagen, dass NVidia 580 ausreicht:
Da muss man noch die Leistungsaufnahme beachten.
Falls jemand eine NVidia 580 hat und demjenigen Stromverbrauch egal ist, dann ist es verständlich.

Mal schauen, wie die NV 6xx Serie aussieht, hoffe, dass die AMDs Preise einbisschen fallen werden.
7870 mit 2048MB sieht sehr verlockend aus x)
 
Wintel schrieb:
Guck dir mal die Spiele an in denen die HD 7870 über HD 7950 Niveau oder ganz nah drann ist.
Das liegt alles mehr oder weniger am aktuellsten Treiber.
Normalerweise dürfte man 10 bis 20% auseinanderliegen.

Mich würde es daher auch nicht wundern, wenn die HD 7970 mit neuesten Treibern 30 bis 50% vor der GTX 580 in eurem Testparcour liegt.
Das könnte genauso gut an der deutlich höheren Pixelfüllrate der 7870 liegen.

Wie gesagt: Die Theorie, aus 10% Vorteil auf dem Papier in der Praxis 20 % Mehrleistung zu generieren, steht für mich auf äußerst wackligen Beinen.
 
Zum Test

Beim Fazit der 7850 kann man im Bezug zum Preis eigentlcih nicht zur gleichen Meinung kommen. 200 Euro wären da zuviel. Die neue Karte leistet 13-16% mehr als eine 6870.

Also 6870 = 140 Euro

*1,16

7850 = 162 Euro

Mit den neuen Features usw. wäre dann vl 180 ein guter Preis. Die 250 Euro UVP sind mal total lächerlich.
 
Man was hier wieder für Battles abgehn ist echt nicht mehr feierlich...

KainerM schrieb:
Ein CF aus zwei HD6870 ist ca. 50€ billiger, und ca. 30% schneller als eine HD7870.

30% wo?

Auf dem Papier gibt es genug kleinere Karten, die größere im CF/SLI übertreffen und auch noch weniger kosten.

Eben nur auf dem Papier, in echt hast du dann zwei RAM Krüppel und kannst dich mit CF herumschlagen.

Ich finde die ganze Preisdiskussion relativ sinnlos. Ja, wenn man die vorigen Generationen vergleicht, sind sie relativ teuer. Dennoch ist die 28nm Fertigung nicht nicht die günstigste und so lange Nvidia keinen Konkurrenten bringt, kann sich das AMD auch erlauben, genau so wie das Nvidia umgekehrt auch konnte.
 
Hm. 50 Euro weniger und die Karten wären echt der Hit.

Nvidia soll sich mal beeilen, damit die Preise endlich fallen.


Also ich weiß nicht, wie es euch geht, aber ich würde schon 20-30 Euro Aufpreis zahlen für eine leisere und Strom/Hitzesparendere Karte.
 
ui da les ich gerade was Interessantes

http://www.heise.de/newsticker/meld...etzt-komplett-in-arabischer-Hand-1447634.html

Außerdem entlässt Globalfoundries AMD aus einer Exklusivitätsvereinbarung zur Fertigung bestimmter, ungenannter 28-Nanometer-APUs, für die Globalfoundries anscheinend in Vorleistung getreten war: Jedenfalls zahlt AMD dafür insgesamt 425 Millionen US-Dollar, aufgeteilt in mehrere Tranchen. Insgesamt entstehen für AMD Belastungen in Höhe von 703 Millionen US-Dollar, die im ersten Quartal 2012 verbucht werden.

Das erklärt die recht guten Quartalszahlen von AMD in letzter Zeit... aber 425Mio Schulden bei GF und insg 703 Mio nachzahlen, das werden heftige neue Quartalszahlen für AMD.

Da tun die hohen Preise bei GPU gut ;)


@ alanyo

merkste jetzt wieso ich immer die GF Quartalszahlen in Relation zu AMDs Zahlen sehen wollte?!
 
boxleitnerb schrieb:
Der MSRP wird kritisiert, nix anderes. [...]

350 Euro MSRP für einen winzigen 212mm2 Chip, ich glaub es hackt. Und Kritiker werden noch als Fanboys beschimpft.

Dann kritisiere doch bitte auch die GTX 580 für 500€, und nicht für 400, ja?
 
naja die GTX 580 ist praktisch EOL da demnächst von GF104 abgelöst. Zudem 1,5 Jahre alt, in 40nm und mit 520mm² die sehr sehr sehr viel teurer da die Yield auch quadratisch abnimmt und zudem der 40nm Prozess damals mehr Probleme gemacht hat als heute 28nm.

Trotzdem ist es logisch dass sich daran AMD heute orientiert.

AMD ist kein Samariter und verschleudert seine Produkte. Das hat man zum Glück kapiert und hält nun Bulldozer als auch GPU Preise zunehmend hoch. Die Zeiten wie zu HD5850 mit 200€ für TopModelle sind vorbei.
 
Unyu schrieb:
Mach dich nicht lächerlich. Für 150€ wäre es ein gutes Angebot, es darf ruhig mehr sein. 300€ für Mittelklasse ist nunmal viel, verglichen mit den teils 2,5 Jahre alten Angeboten für High-End.
Ja und die Geforce 2 Ultra hatte eine UVP von 1599 DM und einen Straßenpreis von 1300 - 1400DM, oder die Geforce 8800 Ultra schwankte zwischen ~645 - 765€, bis sogarhoch zu 870€ ...
http://geizhals.at/eu/?phist=260833&age=9999

Und da waren die 8800GTX und GTS usw auch nicht billig - und trotzdem wurden die Karten gekauft.
Nur weil AMD und nvidia zu Zeiten der HD 4xxx bzw GTX 2xx sich einen massiven Preiskampf geliefert haben, heißt es nicht das wir im Schlaraffenland sind.
Dafür kriegt man inzwischen beim Kauf von RAM noch Geld dazu so ungefähr. Oder vor der Flutkatastrophe wurden einem HDDs hinterhergeworfen noch und nöcher.

Wem es zu teuer ist hat noch genug Auswahl für andere Karten. Wie sich die HD7850/70 Modelle entwickeln werden wird man einfach aus Angebot und Nachfrage sehen. Sind die Karten zu teuer, bleiben sie im Regal und der Markt wird entsprechend reagieren (müssen). So simpel.

@Krautmaster
Das ist doch nicht das Problem des Kunden das nvidia so einen riesigen Chip entworfen hat und damit mehr Fläche auf dem Wafer verbraucht und somit weniger Chips pro Wafer rauskommen. Wenn AMD es eben schafft den Chip so klein zu fertigen ist das eben so.
Weil nvidia einen Riesenchip mit den entsprechenden Kosten produziert muss also AMD seinen Gewinn schmälern und den Preis an die Waferfläche knüpfen? Ahja... AMD orientiert sich einfach daran das die GTX580 bei ~ 380-390€ liegt, die UVP der 7870 liegt bei 350€ und wird dann bei ~ 300€ liegen bei entsprechender Verfügbarkeit. Ist doch alles gut.
 
Zuletzt bearbeitet:
Echt schade, dass ihr es heir nur schafft Leute auf AMD und nVidia zu reduzieren. Es ist eine tolle Karte, aber sie ist einfach zu teuer. Egal wer sie macht. Man bekommt bei beiden Herstellern bessere Angebote. Vor allem aber passt die Positionierung der Karte (Midrange????) absolut nicht zum Preiszettel. Die HD6870 war aus dem Grund (Preis perfekt, Leistung genau da, wo sie hin soll) sehr erfolgreich. Die HD7870 liefert zu viel Leistung - zu einem zu hohen Preis. Ein Realistischer Straßenpreis wird wohl um die 300€ liegen, und selbst um den Preis ist sie einfach zu teuer.

Versteht mich nicht falsch, ich bin auch der Meinung dass schnelle Grafikkarten toll sind. Ich hasse es aber, wenn den Leuten verklickert wird, dass sie mit 350€ jetzt eine Mittelklasse Karte kaufen sollen. Oder anders gesagt: Das 200€-Modell, das für die Meisten noch immer reichlich wäre, wird zum Entry-Level degradiert, damit man es ja nicht kauft, sondern fast das doppelte ausgibt.

Auf der Haben-Seite steht eine schnelle, sparsame Grafikkarte, auf der sollen-Seite steht ein viel zu hoher Preis. Ob UVP oder nicht, ist dabei erst mal völlig egal. AMD selbst WILL 349€ in DE haben, und wie gesagt, auch 300€ wären teuer für das gebotene. Denn der Gegner lautet GTX 570 und HD6970, und die sind beide WESENTLICH billiger. Und im Bereich des spürbaren "gleich schnell".

mfg
 
Alle die sich hier so dramatisch über den Preis aufregen:

Kauft die Karte halt net!

1. Keiner hat ein Recht auf niedrige Preise. Die Preise bestimmt der Anbieter. Wem das net passt, der hält sich halt vom Markt fern. Rumjammern bringt nix und zeigt nur eigene Charakterschwäche.
2. Es handelt sich um kein dringend benötigtes Gut. Es ist also absolut kein Problem das Produkt nicht zu kaufen.
 
KainerM schrieb:
Die GTX 460 / 560 haben sich einen Namen im 150-200€ Segment gemacht, und es wär eine Frechheit dieses Image (wie bei der HDx870 geschehen) dazu zu missbrauchen, Leuten eine Grafikkarte weit über ihren Bedürfnissen verkaufen zu wollen.



28nm Wafer kosten nun einmal mehr Geld. Die Preise werden sich schon in deine gewünschte Richtung einpendeln wenn nVidia einen Konkurrenten auf den Markt wirft.
Und du vergisst eines: Die GTX560 Ti wurde nie wirklich billiger, sondern immer nahe der UVP verkauft. :rolleyes:

@Topic: Hab mir die Karte zwar anders vorgestellt, aber mit der Leistung geht sie voll und ganz in Ordnung. :)
 
Die 7870 ist so eine Zumutung vor dem Herrn, ich hätte sie etwas schneller gesehen wobei das schon so passt. Die Kühllösung ist mal wieder AMD typisch schlecht. Das geht doch nicht bei einer so teuren Karte, sind wir noch beim Preis, der ist auch zu hoch wobei sich das ändern könnte mit besserer Verfügbarkeit und Konkurrenz. Nvidia wird so auch nicht unter Druck gesetzt, können sie doch die GTX580 weiterhin teuer verkaufen zumal sie für das Geld klar besser ist.
 
wow 7870 schneller wie die 6970, damit hab ich nicht gerechnet kühllösungen von anderen herstellern wird es ziemlich schnell geben und dann ist die karte einfach nur der burner!
 
@KainerM

die HD6870 ar schon relativ teuer. Vor allem die HD6950 und HD6970. AMD hat diese vom Nummernshema als High End verkauft, abgesetzt von HD5870 / HD5850 die aber eigentlich fast identisch von der Performance waren. Bereits hier ging der Trend preislich nach oben, die HD7XXX setzt diesen Trend fort.

Es gab Zeiten da gabs die HD5850 1Gb für <130€ - diese ist etwas OC kaum langsamer als eine HD7850, vom VRam mal abgesehen.
Ergänzung ()

Dawzon schrieb:
28nm Wafer kosten nun einmal mehr Geld.

das kann man so nicht sicher sagen. 28nm ist neu und bisher nur gering verfügbar, läuft aber wohl besser als 40nm an. Zudem bekommst man gut 70% mehr DIE aus einem Wafer als noch in 40nm.

Der Chip ist relativ klein.

Um diese Aussage treffen zu können müsste man die Preise für die Chips kennen.
 
@Krautmaster:

Ich zitiere:

...möchte TSMC einen Engpass vermeiden, in dem das taiwanische Unternehmen die Preise für die 28-nm-Wafer erhöht hat: So sollen die Kosten um 15 bis 25 Prozent angestiegen sein, was es nicht unwahrscheinlich erscheinen lässt, dass die Marktpreise für die Next-Gen-Grafikkarten von AMD und Nvidia höher ausfallen werden als bei der letzten Generation.

;)
 
HD5770 --> HD6870 --> HD7870
HD5850 --> HD6950 --> HD7950
HD5870 --> HD6970 --> HD7970

Darf man überhaupt noch die HD7870 & HD7850 als Mittelfeld Karten betiteln? Das sind ja mittlerweile auch schon High End Pixelbomber.
Die neue "Mittelfeld" Karte, übertrumpft die alte High End Karte ... die HD6870 lag noch etwas unter dem alten High End Modell und die neue HD7870 übertrifft die alte High End Modell.
Dabei liegt die Leistungsaufnahme unter einer HD6870! Eine GTX580 ist gleich schnell wie eine HD7870 und schluckt fast das doppelte an Leistung. Die Bildqualität wurde auch noch verbessert. Respekt! Dafür ist die UVP ja schon fast zu niedrig von AMD angesetzt.

Jetzt fehlen allerdings noch die "tatsächlichen" Mittelfeld Karten. Die die Lücke zwischen der HD7770 und der HD7850 schließen. Das dürfte auch der Grund sein, warum hier einige User trollen, weil sie eine HD7XXX Karte erwarten die etwas flotter als eine HD6870 ist und bei einer UVP von rund 200€ liegt.

Ich bin von der neuen HD7XXX Serie begeistert. Endlich effiziente Karten mit viel Leistung und ordentlicher Bildqualität. Hoffentlich wird AMD dafür mit schwarzen Zahlen belohnt. :)
 
Die Stromverbrauchswerte sind nich nachvollziehbar, kann hierzu der Redakteur mal Stellung nehmen?

Die Werte unserrer Karten stimmen definitiv - haben wir heute morgen extra nochmal kontrolliert.
Wir haben nun auch mit einer älteren Karte getestet, ob es ein generelles Problem mit dem Testsystem gibt. Die Werte stimmen mit der vorherigen Messreihe bis auf 1 Watt aber überein. Unsere karten ziehen einfach so viel aus der Steckdose.

CB sollte endlich mal daran denken den Stromverbrauch der Karte zu messen und nicht den des Gesamtsystems.
Wer weiß wie schlecht die Effizienz des Netzteils schon ist. Solche Diskrepanzen sind jedenfalls nicht normal, vor allem bei ausgewählten Samples.
Das macht man aber nicht "eben mal so" :)
Und die Methode mag noch so oft kritidsiert werden. Es zeigt sich aber eigentlich immer, dass es in der Reihenfolge und den Differenzen so gut wie keine Unterschiede gibt.

im testbreich steht das die einzelheiten in einem anhang zu finden sind aber wo finde ich diesen anhang ? mich würde nur die reinen bf3 tests interessieren.
Rechts unter dem Punkt "Anhang" :) Der ist sogar Fett markiert.

Dass ihr es immer noch nicht schafft einfach mal die zweite Variante zu vermessen ist langsam echt etwas arm. Bzw. grenzt es an Ignoranz, das ihr keinen einzigen Satz dazu schreibt, wie es sich bei gemischten Betrieb etc. verhält...
Ich hatte dir schon mehrmals gesagt, dass wir in Zukunft beide Messvarianten anbieten werden. Und ich hatte auich schon gesagt, dass wir das mit dem nächsten Testsystem/Parcours machen - und nicht früher. Und das gilt immer noch und wird sich auch nicht ändern. Weil das auch "ein wenig" zeit in Anspruch nimmt.

Und wie kommst du überhaupt dauernd auf deine identischen Monitore? Das ist überhaupt nicht nötig - haben wir hier auch nicht. Die Auflösung und die Bildwiederholfrequenz muss gleich sein, mehr nicht. Und ach so exotisch wie du hinstellst ist das ganz sicher nicht.
 
Zurück
Oben