Test Test: AMD Radeon HD 6870 und HD 6850 (Update 2)

geforce gamer schrieb:
@eon taboga wie lange am Tag hast du deine Karte unter last?sagen wir bei ca 10 Stunden spielen sind das im Jahr 20 Euro.tolles Argument!

Nehmen wir den Vergleich einmal in Zahlen vor:

HD 6870 Lastverbrauch System 300W
GTX 470 Lastverbrauch System 383W
Differenzverbrauch 83 Watt
Lastverbrauch an 10 Stunden/Tag
Strompreis die kw/h laut Durchschnittsliste 2010 0,2369 €

So ergibt sich folgende Formel:

(83W * 10h * 365/1000) * 0,2369 = 71,72€ sprich Differenzkosten "Last" HD6870 -> GTX 470 bei 10 Stunden Last am Tag (ihr habt eindeutig zu viel Zeit zum Zocken :p )

Im Idle würde die Differenz wie folgt aussehen:

(17W * 10h * 365/1000) * 0,2369 = 14,70€ sprich Differenzkosten "Idle" HD6870 -> GTX 470 bei 10 Stunden Last am Tag

Mit den von Dir angegebenen 20€ im Jahr ist es, unter den von Dir genannten Voraussetzungen, bei weitem nicht getan. Bei 3 Stunden Last am Tag wären die 20€ dagegen ein denkbarer Betrag.

Ja Strom ist inzwischen teuer in Deutschland und nächstes Jahr sind es nochmal 2 Cent mehr :(

Btw. wir haben nur den Differenzverbrauch der 2 Grafikkarten betrachtet, bei 10 Stunden am Tag zu 383W Lastverbrauch kostet das Gesamtsystem mit GTX 470 im Jahr 331€ an Strom, mit HD 6870 kostet es 260€. Sicher mag der reale Verbrauch nicht ganz so hoch ausfallen, da 10 Stunden Vollast etwas extrem sind aber die Zahlen zeigen ganz deutlich, dass es sich durchaus lohnen kann, die Stromkosten in eine Kalkulation mit ein zu beziehen. ;)
 
Zuletzt bearbeitet:
@Antomin, es gibt jedoch leute die kaum mehr als 50 euro im Monat übrig haben, ja hier ein Kollege von mir z.B. und IT jobs sind nicht schlecht bezahlt. Natürlich nicht viel, aber es summiert sich mit anderen Haushaltsgeräten!
 
Antimon schrieb:
Nehmen wir den Vergleich einmal in Zahlen vor:

HD 6870 Lastverbrauch System 300W
GTX 470 Lastverbrauch System 383W
Differenzverbrauch 83 Watt
Lastverbrauch an 10 Stunden/Tag
Strompreis die kw/h laut Durchschnittsliste 2010 0,2369 €

So ergibt sich folgende Formel:

(83W * 10h * 365/1000) * 0,2369 = 71,72€ sprich Differenzkosten "Last" HD6870 -> GTX 470 bei 10 Stunden Last am Tag (ihr habt eindeutig zu viel Zeit zum Zocken :p )

Im Idle würde die Differenz wie folgt aussehen:

(17W * 10h * 365/1000) * 0,2369 = 14,70€ sprich Differenzkosten "Idle" HD6870 -> GTX 470 bei 10 Stunden Last am Tag

Mit den von Dir angegebenen 20€ im Jahr ist es, unter den von Dir genannten Voraussetzungen, bei weitem nicht getan. Bei 3 Stunden Last am Tag wären die 20€ dagegen ein denkbarer Betrag.

Ja Strom ist inzwischen teuer in Deutschland und nächstes Jahr sind es nochmal 2 Cent mehr :(

sicherlich richtig aber der Vergleich hinkt. Eine schwächere Hd6870 mit einer 470GTX zu vergleichen also Bitte.
Nimm eine GTX460 und berücksichtige den Kaufpreis.
 
ich hätte ehrlich nicht gedacht, dass die karten so gut werden...
wenn man bedenkt, dass es schon jetzt von powercolour und sapphire alternativkühlungen gibt dürfte die karten leiser werden und eventuell noch weniger strom brauchen...

uiuiui da juckt einem echt der finger beim bestellknopf...

zum glück habe ich in letzter zeit keine graka gekauft - die NV preise sind deratig heftig gefallen und diese karten sind P/L mässig viel besser als die 5800er gen
 
Hm an sich zwei schöne Karte vor allem die 6850 weiß durch ihre absolute Spitzenposition im Preisleistungsverhältnis zu gefallen aber die 6870 mit ihrem kleinen 1gb Vram ist keine Investition wert oder ich warte auf eine mögliche 2GB Version.
 
Test auf CB nicht richtig gelesen rollkragen? da ist die gtx470 nur minimal schneller manchmal sogar langsamer??? Irgendwie werde ich das gefühl nicht los, dass du dich immer an diese karte klammerst. Wenn du die so gut findest, dann ist das ok, dann schreib aber auch nicht immer jeden müllkommentar hier rein!
 
meiermanni schrieb:
Nein versus, so ein Tauch wäre hirnrissig.

Kann jemand erklären warum die 6870 im Gamestar Tests beispielsweise deutlich schneller ist als bei cb?

anderes Testsystem?:p
 
@AeS:
Es hindert dich ja niemand daran, dir eine Grafikkarte in einem niedrigen TDP-Bereich zu kaufen. Eine (zB) HD5450 brauch nicht einmal 20W und dreht in Punkto Geschwindigkeit und Features trotzdem Kreise um jede Karte die vor 10 Jahren erschienen ist.
Und bezogen auf die Gesamtbasis an installierten PCs machen die 100W+ Karten einen verschwindend geringen Anteil aus. Der Großteil der Menschheit ist mit mit Intel GMA zufrieden.
 
@Rollkragen: Die GTX 470 und HD6870 sind in etwa gleich schnell. Und die HD6870 sogar billiger. Also passt der Vergleich schon.
Eine GTX460 müsste man mit einer HD6850 vergleichen.

@r0bby666: Wenn bei der 5870 2GB Vram nichts bringen (außer im CF), dann wird es bei einer HD6870 auch nicht anders sein

@fabulan (unter mir): tomshardware und PCGH sind ziemlich nvidia lastig. Bei CB und ht4u und nen paar anderen siegt die 6850
 
Zuletzt bearbeitet:
beim cb test schneidet die 6850 vielleicht relativ gut ab. vorallem für 150€ ist sie pratisch ein schnäppchen, aber in der gxt 460steckt ne menge an oc potential!!! unjd somit ist sie der klare sieger im rennen! ist auch für fast 150€ zuhaben und der preis wird sicher noch in den kommenden tagen fallen.

ausserdem bei anderen test wie ala tomshardware siegt die gtx 460 mit standard takt oft genug! und dass sich die 6850 gut übertakten lässt, bezweifle ich, da der speichertakt schon an seinen grenzen in referenztaktung spielt.

http://www.tomshardware.de/Radeon-HD-6870-6850,testberichte-240657.html

lg
 
@ Pumpi
Ich glaube nicht daran, dass DirectX11 und Tesselation mittelfristig einen großen Durchbruch schaffen werden. Die meisten Spiele werden inzwischen vorrangig für Konsolen herausgebracht oder zumindestens so optimiert, dass sie auch relativ einfach auf die Konsolen portiert werden können. Wenn eine neue Konsolengeneration herauskommt, wird sich Grafisch bestimmt wieder einiges bewegen, momentan ist es auf dem Gebiet eher ruhig geworden. Bestes Beispiel ist Crysis, das grafisch nach wie vor zu den besten Spielen gehört, obwohl es in IT Zeirechnung schon recht alt ist.

@ Ankh
Ich unterstütze den Vorschlag.


@ Topic
Leider erschweren die teilweise doch recht unterschiedlich ausgefallenen Benchmarkergebnisse eine objektive Einordung. Mal abwarten, was weitere Tests so zu Tage fördern, insbesondere wenn Partnermodelle mit verbesserter Kühllösung erscheinen.
Hoffentlich schafft es AMD dieses mal eine hohe Verfügbarkeit von Anfang an zu gewährleisten, ich vermute das sollte aufgrund der inzwischen etablierten Fertigungstechnik aber leichter zu bewerkstelligen sein.

Übrigens, schön das es auch User wie etwa Zwirbelkatz gibt, die ein Produkt obektiv bewerten können, obwohl sie eine Grafikkarte der jeweils anderen Firma verbaut haben. Verstehe gar nicht warum das für viele so ein Problem ist. Im Laufe der Zeit hatte ich schon Grafikkarten von Kyro, S3, Matrox, Nvidia und ATI und keine davon hat mich so überzeugt, dass ich zum Markenfetischisten wurde.
 
Yeah, danke für den Test!
War schon kurz davor mir ne GTX460 zu kaufen, was ich zum Glück jetzt nicht machen muss!
So kann ich ATI die Treue halten, denn meiner Meinung nach ist das nur gut für den Wettbewerb und somit auch für uns als Endverbraucher!
Möge der neuerliche Preiskampf beginnen! :)
 
versus01091976 schrieb:
was meint ihr. ne gtx 470 gegen eine 6870 tauschen. habe die soc
Unter DX9/10 vielleicht, aber unter DX11 sind die AMD Karten nachwievor deutlich schlechter gestellt. Ich würde mir selbst jetzt noch ne übertaktete 460 kaufen, anstatt ne 6870. Was bringen mir 300fps in alten Spielen, wenn ich mir unter DX11 einen abruckele.
 
Im Artikel ist noch ein kleiner Fehler.
In den Impressionen der PowerColor Karte steht unten mit welchen Shutterbrillen sie kompatibel ist. XpandD Ein d zuviel...

Fand ich auf der Suche nach einem Shop der die Brillen in Deutschland vertreibt. Leider keinen gefunden... In den USA kosten die dinger 249$ also 180€

Kann mir vielleicht einer schreiben wo man hier die Brillen kaufen kann?
 
@ Antimon: 10 Stunden Volllast pro Tag? Hartz4 Gamer oder was? Soviel Zeit habe ich nicht einmal als Student...
 
Schinzie schrieb:
Genau wegen einer solchen Lügenpropaganda habe ich mir eine GTX470 gekauft und sie mit meiner 5870 verglichen mit dem Resultat, dass du absolut keine Ahnung hast!

Wo gibt es eine fehlerhafte Bilddarstellung? Bei Nvidia bei BFBC2.
Wo rauchen radeons bei aktuellen spielen ab (z.b. SC2)?
Mit der GTX470 hatte ich mehr abstürze als mit der 5870. BQ technisch war ein minimal winziger Unterschied beim AF zu bemerken, dafür war das AA scheiße, vor allem in BFBC2.

Super Flimmern? Die Geforce Karten flimmern genauso. Was ist das Problem beim AF?
da die HD5000 Karten mehr als doppelt so lange draußen sind, weil Nvidia seinen Release nicht halten konnte, ist es klar, dass es mehr Problemthread gibt...

Genau das meine ich, da bin ich vollkommen Schinzie's Meinung.
 
Eher selten, dass hier noch intelligente und konstruktive Posts geschrieben werden! Sehr gut geschrieben! :)

boxleitnerb schrieb:
Tut er nicht. HQ ist bei Nvidia komplett kostenlos, wie Skalierungstests auf CB bewiesen haben. Abweichungen liegen innerhalb der Messtoleranz.
Bei AMD bringt Q bis zu 10% Performance, die man sich mit größerer Flimmerneigung erkauft.

Es sollte in Zukunft also HQ (NV) vs. HQ (AMD) getestet werden mit dem Hinweis, dass selbst das nicht vollkommen fair ist, weil AMD damit immer noch leicht schlechtere Qualität bietet.

Mal drei ganz einfache Fragen an alle, die die Problematik mit dem AF nicht so schlimm finden:

1. Findet ihr es ok, dass ein Bugfix (Banding von der 5000er Serie gefixt) beim Nachfolger als Feature (Quelle: AMD-Folien) verkauft wird?

2. AMD hat zu PCGH auf Anfrage explizit gesagt, dass die jetzige Standardeinstellung (Q) im Vergleich zu älteren Treibern (AI Standard) aggressiver (=schlechter) filtert. Selbst wenn ihr den Unterschied im Spiel nicht seht: Findet ihr ok, dass hier Leistung ercheatet wird?
Der versierte Anwender wird vielleicht als erstes nach dem Einbau auf HQ stellen, aber in den allermeisten Reviews (auch CB) ist das nicht der Fall.

3. Wäre es so schwer für AMD gewesen, die Qualität der Standardeinstellung zu belassen und für die, die es wollen, einen zusätzlichen HQ-Schalter einzubauen, der auch wirklich eine Verbesserung darstellt?

Selbst wenn ihr das Flimmern nicht seht/sehen wollt - der eigentliche Knackpunkt ist doch, dass ein fairer Benchmarkvergleich so nicht möglich ist und alle Ergebnisse automatisch vorbelastet sind, weil AMD sich hier Rechenarbeit spart und Nvidia nicht.
Würde der Q-Modus bei NV auch einen Schub bringen, wäre das ja mit drei zugedrückten Augen gerade noch so zu akzeptieren - aber es kann wohl nicht Sinn der Sache sein, dass man sich in der AF-Qualität vom Mitbewerber wieder runterziehen lässt.
 
vielen Dank für den Test. Doch lieber eine 5870 wie eine 6870^^ die leiten echt schön in die Irre...
 
Zurück
Oben