Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
@Mister79: :) nein das will ich damit nicht sagen, aber man sollte die 6000er nicht als Nachfolgermodell sehen sondern ledeglich als "billigere Weiterentwicklung" fürs kleine Geldbörsel,sozusagen eine 5870v2!
Immerhin kostest ein Monitor auch auch was, und ich glaube nicht das hier nur Schwerstverdiener im Forum diskutieren dies sichs leisten können eine Graka jenseits der 300€ und zudem 3 Monitore wo man bei halbwegs guter Quali oft auch schon mal 200€ reinstecken muss, leisten kann!
Softwaretechnische Unausgereiftheit so kurz vor Weihnachten(und dem Verkaufsstart einer ganz neuen Generation) sei einem Grakahersteller auch verziehen!
Ich selbst habe beruflich mit Prozessleitsystemen zu tun und die sind weiß Gott nicht so komplex wie Treibersoftware, da kann in der Programmierung auch einiges Schief gehen!Jeder hier kennt außerdem verbugte Patches;)
Mutmaßungen wie dem "Herunterschrauben" älterer Karten kann ich mich deshalb auch nicht anschließen!
Denkbar ist auch das der neue Filter, wenn ausgereift, dem "peripheren Sehen" bei Eyefinty's sekundären Monitoren zu gute kommt um ein "Überreizen" des Auges beim gamen zu vermeiden!

Eyefintykarten spielen in einer anderen Liga wie Nvida soviel steht für mich jedenfalls fest, und wer jez glaubt ich sei ein "Radeonverfechter" der liegt falsch,nutze selbst 2x8800GT,und war wirklich sehr zufrieden damit!
Nur wie schon gesagt, bin ich kein Grafikenthusiast und mir kommts auf das Spielerlebniss und den Spaß an!
 
Vielen Dank für diesen interessanten und informativen Test. Insbesondere die "eigenen Gedanken" kann ich persönlich nur unterschreiben. Die "Schlacht um die FPS" wird mittlerweile u.a. zu Lasten der Bildqualität, Treiberkompabilität ,verbauten Komponenten und Verarbeitungsqualität geführt. Da wird "gecheatet" was das Zeug hält um in den Benchmarks ein paar Prozent vor der Konkurrenz zu liegen. Offensichtlich sind diese Benchmarks für sehr viele Leute aber immer noch die wichtigste Entscheidungsgrundlage für den Kauf einer Grafikkarte. Daher brauchen wir uns auch nicht wirklich zu wundern.

Ich persönlich kaufe schon lange keine Grafikkarten mehr aufgrund von Benchmarkergebnissen. Für mich sind eben ein durchdachtes Kühlkonzept, Bild- und Verarbeitungsqualität und insbesondere die Treiberkompabilität wichtiger als 5% mehr oder weniger Leistung. Dafür bin ich auch bereit mehr Geld auszugeben, auch wenn das bei meiner aktuellen Karte nicht einmal nötig war...... :love:
 
Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.
Erstens, der gewöhnliche User spielt nicht an den Einstellungen des Treibers herum. Ihr vermittelt daher eine falsche Performance.
Zweitens, Ergebnisse mit HQ (10.10) Barts werden gegenüber alten Cypress Tests (10.9 Standard) verfälscht und sind daher nicht mehr vergleichbar, da Barts in dem Fall höherwertiger filtert (Banding).
Drittens, ihr macht die AI Einstellung nur von AF abhängig. Zur Bildqualität gehört aber mehr.
Viertens, ihr sagt selbst, dass Barts default (10.10) mehr flimmert, dafür aber das Banding Problem weitestgehend behoben wurde im Vergleich zu Cypress. Trotzdem stuft ihr Barts als schlechter ein. Wer hat festgelegt, dass Banding einen geringeren Stellenwert besitzt? Ist das nicht wie meistens eine äusserst subjektive Einschätzung? Unterm Strich kommt also nicht mehr und nicht weniger raus. Man sollte daher Barts default 10.10 in diesem Punkt auch gleichwertig zu Cypress default 10.9 betrachten.
Fünftens, ihr stellt ein Video bereit, von dem ihr genau wisst, dass es schon ein Worst-Case Szenario darstellt (mal abgesehen davon, dass man seinen Blick sowieso nicht auf dem Bereich hat, wo es flimmert), und stilisiert das noch weiter hoch, indem ihr schreibt, dass es "in der Realität auf dem Bildschirm nochmals etwas intensiver" wäre? Wo bleibt da die Sachlichkeit, den Leuten zu erklären, dass es in der Realität weniger Auswirkungen hat?
Sechstens, wieso habt ihr die Treibereinstellung der HD 5000 beim Release nicht angepasst, um AF gleichwertig zum Vorgänger HD 4000 zu bekommen? :rolleyes:
Siebtens, ihr nehmt immer wieder Bezug zu GeForces, bringt aber keinen einzigen Vergleich in puncto Bildqualität.
Achtens, ihr werft AMD vor, sie hätten es wegen der Performance getan. Laut eurem Test liegt eine HD 6870 20-25% vor der Konkurrenz GTX 460 1 GiB und eine HD 6850 etwa 15% vor der Konkurrenz GTX 460 768 MiB. Selbst mit 5% weniger Performance würden die Radeons immer noch klar vorne liegen. Die Vorwürfe sind also nicht sonderlich plausibel. Genauso wenig die Erklärung, ihr würdet jetzt anders testen, damit AMD etwas am AF verbessert. Das erreicht man auf diese Weise ganz gewiss nicht. Dafür ist der technologische Vorsprung von AMD zu gross. Wie wäre es, wenn ihr in jeden ermittelten FPS Wert auch die Leistungsaufnahme einfliessen lasst, damit nVidia endlich mal diese verbessert? Stromhungrige, heisse und laute Systeme stören mich mehr als Pixelhascherei.
Usw.usf. Man könnte hier sicherlich noch weitere Punkte anführen, wie Tiefenschärfe oder generell Schärfe, was auf Radeons angeblich besser sein soll und ebenfalls einem Vergleich unterzogen werden sollte.


Sry CB, damit habt ihr für mich jegliche Glaubwürdigkeit verloren. Und die GPU Tests hier fand ich sogar gut. Ich hoffe, ihr nehmt das als konstruktive Kritik und denkt über euer Vorhaben nochmal nach. Der Bericht mag zwar in Ansätzen nicht falsch sein, trotzdem ist er für eine derartige Bewertung viel zu oberflächlich und viel zu wenig aussagekräftig.
 
Zuletzt bearbeitet:
Hi,

ich habe eine 5850 mit dem neusten Treiber. Heißt das nun, dass ich A.I. auschalten soll?
Andere Frage: Wozu genau ist dieses A.I. und steigt durch das ausschalten die Performance, oder sinkt sie?
 
@ Wolfgang

Kannst du mir die Sache mit dem Edge Detect AA mal erklären, wie ihr darauf kommt es würde bei den 6800ern nicht mehr funktionieren, denn wie ich schon auf Seite 3 dieses Threads schrieb, kann ich das nach wie vor auch mit meiner 6870 im CCC anwählen.
 
Ich hab da mal ne Frage. Hoffe das ist nicht ganz OT.

Ich habe eine Radeon 5850. Gibt es da jetzt Einstellungen die ich im Treiber am besten einstelle? Für bestmögliche Bildqualität.

Danke für den Test. Hat mich davon abgehalten auf 10.10 umzusteigen.
 
Ja, das das Bild der NV-GPUs in der Tat generell immer etwas unschärfer ist wurde wird/wurde wie gruffi schon sagte nie erwähnt. (obwohl fakt) Nunja... es ist alles subjektiv...

Finde es aber dennoch den absolut falschen Schritt in Zukunft die 6800 Serie mit High zu benchen!
 
^^ Was müsste man im Treiber verstellen um HIGH zu haben?
 
HappyMutant schrieb:
Ich frag dann einfach mal: Test gelesen? Bilder geschaut? Videos gesehen?
Wenn man mit Aussagen solcher Tragweite ernstgenommen werden will, bedarf es ausserordentlicher Sorgfalt in der Beweisführung.

Daher: Um dem bei 25 FPS zwangsläufigen Zweifel zu begegnen bitte neue Videos mit 60 FPS erstellen, oder die bisherigen Videos still und leise versenken.

Denn: Flimmern ist eine Funktion über die Zeit, und bei 25 FPS in dieser Auflösung ohne jeden Aussagewert.

Bedenken: Es mag ja sogar etwas dran sein, aber dann sollte man es nicht in einer Weise vorführen, die an das Anfahren eines PKW im vierten Gang erinnert.
 
naja also das ist man doch schon immer gewohnt und zwar unabhängig davon ob nVidia oder AMD/ATI ... um performancetechnisch besser dazustehen an der Grafikqualität zu bescheissen ... manchmal etwas weniger manchmal etwas mehr so das es direkt auffällt ...aber: diese " Optimierungen" lassen sich meistens auch korrigieren, dazu muss man sich halt etwas mit den Treibern auseinnandersetzen ... nicht nur dumpfes Plug&Play ...Casuals nehmen halt was Ihnen vorgesetzt wird, der Rest stellt sich sein System ordentlich ein ... was hier eher unterwegs ist sieht man ja an den Kommentaren ;X
 
proko85 schrieb:
Ist das nun ein Hardware oder ein Softwareproblem?
Falls Software, dann würde das ja zu AMD passen. Obwohl ja mittlerweile alle behaupten, dass AMD gar keine Treiberprobleme mehr hat...

Ja gut wenn ihr andere Default-settings als Softwareprobleme aka Treiberprobleme anseht, dann hat AMD vielleicht Treiberprobleme, wenn ich von Problemen in Bezug auf Software rede denke ich an Bugs, und da schenken sich Nvidia und AMD sicher nicht viel.

War auch erstmal bischen geschockt von dem Test, finde es ansich auch nicht gut, aber CB hat jetzt AMD doppelt abgestraft, wenn man das Fazit ließt denkt man ok AMD hat schlechtere Bildqualität, dann schaut man auf die Preisleistung und dort ist AMD nur minimal Forne oder teilweise auch minimal weiter hinten. Jetzt denkt jeder sie sind ungefähr gleich schnell / pro Euro und schlechtere Bildqualität, aber wenn man auf den High quality balken schaut ist die Bildqualität ja ungefähr auf gleichem Niveau.

Also Fakt bleibt, das die Karte bei 0x AA auf vergleichbaren High settings 11% schneller wie eine gtx460 ist und bei 8x AA um 6%, auf 4AA (den Setting sollte ich dann wohl als AMD Grafikkartenbesitzer tendenziel meiden) ist sie immernoch ca. 1% vorne (gut vernachlässigbar). wenn ich das jetzt mal noch mittele sind das also im schnitt 6% Schneller. Auf gleichem Leistungsniveau bei den AA modi ist dann die Overclocked variante der gtx460, aber auch die ist ohne AA 7% langsamer.

So jetzt kommt es halt auf den Preis an, da halt Nvidia die Preise genau dort hin verändert hat wo sie leistungsmäsig passen, sind jetzt beide Karten gleich interessant. die 460 ist 6% langsamer und kostet auch 7% weniger (um 1% hin oder her braucht man nicht streiten), die oc variante ist mit AA ungefähr gleich schnell kostet gleich viel, hat aber den nachteil das sie ohne AA langsamer ist. Also ist diese rein aus preis/leistung sicht bei ungefähr gleicher Qualität eher ne schlechte Wahl.

So also nochmal Kurz die karten haben momentan alle 3 ungefähr gleiches Preis/Leistungsnivau bei ungefähr gleicher Bildqualität. Jetzt entscheidet der Preis und persönliche Vorlieben. Unkaufbar sind die AMD karten jetzt also sicher nicht.

Da AMD ja die kleineren billigeren Chips baut, sollte AMD eigentlich preislich die gtx 460 unterbieten können, dann wären diese klar der bessere Deal, aber klar solange das nicht so ist, ist die Karte nur gleich interessant. Mal aus Preis/Leistung sicht. Ich würde momentan AMD bevorzugen wegen dem hier:
Anschlüsse* 2x DVI, 1x HDMI, 1x Displayport
das wäre mir locker schon 20,- wert ;)

Also nicht so doll von AMD (vielleicht haben sie ja auch nur Treiberprobleme die vielen Hotfix-treiber deuten da hin) aber deshalb sind die Karten alles andere als uninteressant oder schlecht.
 
Zuletzt bearbeitet:
Der Test ist lächerlich wie die meisten Kommentare hier. Zum einen da hier durch Änderungen der Treiber die Ergebnisse der Benches geändert werden und zum anderen das rumgebashe gegen AMD.

Wenn man schon so vorgeht, müsste man ein Standard Bild hernehmen das man als perfektes Vorbild hernimmt. Nun muss man bei beiden Herstellern, bei allen Karten einzeln und bei jedem Treiber einzeln die Einstellungen so ändern das diese dem perfekten Bild nahe kommen. Das ist aber nicht möglich, da es immer Abweichungen geben wird. Die Tests sind dann nicht mehr aussagekräftig und für die Tonne.

Ein weiteres Problem sehe ich darin, dass alle mit HQ benchen in der Annahme die Qualität sei nur damit vergleichbar mit nVidia obwohl AMD dies bereits geänder hat. Man sieht das ja bei den berühmten "Die Treiber sind schlecht" - gebashe. Ich hatte in 10 Jahren weder Treiberprobleme mit ATi noch mit nVidia. Einzig unter Linux gab es etwas zicken, dabei nehmen sich beide Hersteller aber nicht viel.
 
@gruffi

Wieso?
Wenn AMD bei den neueren Treibern @ Default eine schlechtere BQ liefert als mit älteren um die Performance zu erhöhen dann werden die Ergebnisse verfälscht.
Die CB hat sich entschlossen den Treiber so ein zu stellen das die Qualität gleich bleibt, wenn da jetzt die FPS sinken dann ist das so und es ist auch richtig.

AMD hat schließlich angekündigt das sich die BQ verbessert, was ja nicht der Fall ist. Es gibt leider fast keinen Test, der auf die BQ eingeht. Die meisten machen Balkenlängen Vergleiche ohne genauer auf den Treiber ein zu gehen oder zumindest zu erwähnen das die BQ gleich oder schlechter ist.

Das Ziel von solchen Tests wie den von der CB ist gute BQ zu erreichen und den Hersteller dazu zu bewegen diese auch von Anfang an an zu bieten.
Beim G70 haben sich damals sehr viel beschwert und der G80 hatte auf einmal eine sehr gute BQ.
 
HappyMutant schrieb:
Ich frag dann einfach mal: Test gelesen? Bilder geschaut? Videos gesehen?
Bilder bringen ja nicht viel, wie wir wissen. Ausserdem ging es mir nicht nur um einen spezifischen Vergleich. Sondern um einen umfassenden Vergleich zur Bildqualität. Was willst du da mit einem Video beweisen? :rolleyes:


Ralf T schrieb:
Wenn AMD bei den neueren Treibern @ Default eine schlechtere BQ liefert als mit älteren um die Performance zu erhöhen dann werden die Ergebnisse verfälscht.
Richtig lesen! Ich sehe nirgendwo, dass Barts default 10.10 generell eine schlechtere Bildqualität haben soll als Cypress default 10.9. Bisher steht, dass Barts in diesem Szenario zwar etwas mehr flimmern soll, dafür aber das Banding Problem beseitigt wurde. Du hast also einen positiven und einen negativen Punkt und unterm Strich eine Null. Wer was präferiert, ist subjektiv. Wenn du jetzt aber Barts mit HQ 10.10 testest, dann hast du eine höhere Bildqualität als mit Cypress default 10.9, da das Flimmern wieder auf dem gleichen Level ist, der Banding Vorteil von Barts aber bleibt. Unterm Strich wären die Barts Ergebnisse mit den alten Cypress Ergebnissen also nicht mehr vergleichbar.

Ralf T schrieb:
AMD hat schließlich angekündigt das sich die BQ verbessert, was ja nicht der Fall ist.
AMD hat gesagt, das mit Barts eine höhere Bildqualität eingestellt werden kann. Und das ist nicht falsch. Das gilt sogar, wenn du den gleichen Treiber und die gleiche Einstellung verwendest. AMD hat hingegen nie gesagt, dass die Bildqualität default neu vs default alt besser wäre.
 
Zuletzt bearbeitet:
Schön, dass hier auch mal über die Bildqualität berichtet wird. Eigentlich gehört das aber nicht extra sondern bei JEDEN! Grafikkarten Test rein.

Ob diese Methode sinnig erscheint oder nicht sei jetzt mal dahin gestellt. Ich bin der Meinung mal sollte die Bildqualität bei Treiber Standard mit der höchst möglichen Treiber Einstellung vergleichen und diese dann mit dem Konkurrenz Produkt.

Die kleinen Unterschiede mögen nicht für jeden relevant sein, zumal es ja keine Welten sind, sondern wirklich nur Kleinigkeiten, aber es gibt eben auch User die das wissen wollen. Die suchen sich nämlich einen Wolf im Internet einen vernünftigen Test zu finden.
Ich habe vor kurzem eine GTX470 gekauft und habe Ewigkeiten gesucht wo mal ein Test zu finden war, wie der Bildunterschied zur HD5850 ist. Außer so Pauschalaussagen, dass AF bei NV besser ist und AA bei ATI besser, findet man nirgends etwas.
Lediglich diese Schwanzmark Vergleiche, die mit einem Spiel nichts gemein haben.

Nachdem dann die GTX470 auf den Preis einer HD5850 abgesenkt wurde habe ich mich dann für die Nvidia entschieden, weil diese schneller ist.

Übrigens dieser Autovergleich ist schon etwas daneben. Wenn man dass auf Autos bezieht müßte man das so sagen, das die Grafikkarte die ein schlechteres Bild darstellt auf einem kürzerem Parcours fährt und dahingehend schneller ist. Für Leute denen die Bildqualität (der Parcour) egal ist, die haben die Information, dass die Karte schneller ist.

Das Problem ist doch, dass niemand weiß, dass die Karte eben nicht auf demselben Parcour fährt.
 
Das sieht beim Aufnehmen selbstverständlich genau so aus. Ich möchte nur wissen, wie es mit 60 FPS aussieht, weil bei 25 FPS zwangsläufig Interferenzen auftreten. Und zwar sowohl auf dem Monitor als auch auf dem Video.
Das sieht auch bei 100 FPS so aus, auch bei 60 FPS und auch bei den maximalen 250 FPS die das Spiel hier liefert =) Verschiedene FPS-Stufen haben wir für interne Zwecke ausprobiert und für den "richtigen" Vergleich nehmen wir auch andere Videos (1280x720 mit 30 FPS) und es sieht genauso aus. Wir haben auch noch andere Sachen probiert, doch es ändert an dem Problem nichts. Vielleicht gehörst du ja einfach zu den Glücklichen, denen das Flimmern nicht so auffällt. Wie erklärst du dir denn eigentlich, dass die Videos von GPU zu GPU und Einstellung zu Einstellung ziemlich anders aussehen, obwohl das Flimmern nach deiner Meinung durch die 25 FPS entstanden sind? (das ist jetzt nicht agressiv gemeint, auch wenns so klingt. Kriege es gerade irgendwie nicht anders formuliert :))

Kannst du mir die Sache mit dem Edge Detect AA mal erklären, wie ihr darauf kommt es würde bei den 6800ern nicht mehr funktionieren, denn wie ich schon auf Seite 3 dieses Threads schrieb, kann ich das nach wie vor auch mit meiner 6870 im CCC anwählen.
Edge Detect funktioniert ganz normal, nur die Tent-Filter gehen nicht mehr. Haben wir doch auch genauso geschrieben, oder?

Also nicht so doll von AMD (vielleicht haben sie ja auch nur Treiberprobleme die vielen hotfix-treiber deuten da hin) aber deshalb sind die Karten alles andere als uninteressant oder schlecht.
Auch wenn uns das schon mehrmals unterstellt wurde. Haben wir irgendwo im Artikel geschrieben, dass die HD 6800 Karten schlecht sind? Haben wir nicht extra auf eine Neubewertung verzichtet?
 
NotNick schrieb:
Wenn man mit Aussagen solcher Tragweite ernstgenommen werden will, bedarf es ausserordentlicher Sorgfalt in der Beweisführung.

Daher: Um dem bei 25 FPS zwangsläufigen Zweifel zu begegnen bitte neue Videos mit 60 FPS erstellen, oder die bisherigen Videos still und leise versenken.

Denn: Flimmern ist eine Funktion über die Zeit, und bei 25 FPS in dieser Auflösung ohne jeden Aussagewert.

Bedenken: Es mag ja sogar etwas dran sein, aber dann sollte man es nicht in einer Weise vorführen, die an das Anfahren eines PKW im vierten Gang erinnert.

Stimmt, in 60 FPS müssten die Videos sein. Man sieht bei den Videos sogar, dass das Bild leicht ruckelt. Mit 25FPS spielt doch keiner... also ich muss dir recht geben. Mit 25FPS müsste das Flimmern natürlich schlimmer sein.
 
HardRockDude schrieb:
Na immerhin konntest Du den einen Punkt 7 von den 8 aufgeführten wiederlegen.

Hmm, wenn aber die Quintessenz ist, dass er den Test gar nicht erst in Gänze gelesen hat, wie relevant sind die anderen Punkte? Also ich meine so von wegen Glaubwürdigkeit?

Und im Endeffekt läuft sein Beitrag auf das folgende hinaus: Der Test soll den Leuten sagen, hey, wenn die Bildqualität schlechter ist, dann ist das kein Beinbruch, sieht man nicht. Natürlich kann jeder diese Meinung haben, kein Problem. Deswegen gibt es ja Bilder, Videos und eine ausführliche Betrachtung.

Aber wenn man die Glaubwürdigkeit davon abhängen soll, ob man so oder so testet, obwohl es für beides vernünftige Gründe gibt, dann ist das auch mal wieder übertrieben.

Und wo in dem Video ist die GeForce?

Mal geklickt? Ich sehe 7 Videos. Zwei davon... Naja, findest du selber raus.

Was willst du da mit einem Video beweisen?

Soll heißen, ein Vergleich Bildqualität irrelevant, weil man es eh nicht mit Bildern und Videos belegen kann? Willst du also sagen, es sei subjektiv? Frage ich mich was 3dcenter und Co. seit Jahren machen? Nochmal, lies den Bericht, steht echt viel zum Thema Bildquali drin.

Aber führst du auf, in welchen Bereichen nun die AMD-Karten besser sind, wenn es dir ums große Ganze geht. Das wäre nämlich mal interessanter, als anahnd von dir je nach Gutdünken ignorierter Videos zu bezweifeln, dass es in einigen Punkten etwas schlechter ist. Und das man das problemlos auch wieder auf das selbe Niveau hieven kann (im Gegensatz zum Banding der letzten Generation)?.

Du sagt immer, Bildqualität beinhaltet mehr als nur AF. Hast du völlig recht. Aber wo sind die Unterschiede denn derzeit sonst, wenn nicht da?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben