Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Edge Detect funktioniert ganz normal, nur die Tent-Filter gehen nicht mehr. Haben wir doch auch genauso geschrieben, oder?

Oh, da war in der Tat ein blöder verschreibsel drin. Ist korrigiert :)
 
@Wolfgang, um nochmal aufzugreifen, was ich weiter vorne geschrieben habe:

Wenn Ihr so auf AMDs schlechteres AF einschlagt und jetzt in den Tests sogar die BQ weg von den Standardeinstellungen hochschraubt, was ist dann mit nVidias "schlechterem" AA? Wird das jetzt in den Tests auch jeweils ne Stufe höher geschraubt?

Und, ganz rational betrachtet, wenn Ihr tatsächlich hingeht und das AF der Radeons umstellt bis die BQ gleich ist, dann MÜSST Ihr eigentlich jede Radeon zweimal benchen - einmal @default und einmal @HQ. Ansonsten verfälscht Ihr die Tests.

Vergesst nicht, daß der Großteil der User (und zu denen zähle ich tatsächlich auch) dieses Flimmern am eigenen Rechner (bei mir mit HD5830) nicht wahrnimmt. Sprich: Mir ist dieses AF-Gebashe schlichtweg wumpe - und vermutlich dem Großteil der Leser hier auch.
 
Man macht ja garnix eine Stufe höher - HQ AF ist wie das AF zuvor mit der Standardeinstellung.
 
gruffi schrieb:
Richtig lesen! Ich sehe nirgendwo, dass Barts default 10.10 generell eine schlechtere Bildqualität haben soll als Cypress default 10.9. Bisher steht, dass Barts in diesem Szenario zwar etwas mehr flimmern soll, dafür aber das Banding Problem beseitigt wurde. Du hast also einen positiven und einen negativen Punkt und unterm Strich eine Null. Wer was präferiert, ist subjektiv. Wenn du jetzt aber Barts mit HQ 10.10 testest, dann hast du eine höhere Bildqualität als mit Cypress default 10.9, da das Flimmern wieder auf dem gleichen Level ist, der Banding Vorteil von Barts aber bleibt. Unterm Strich wären die Barts Ergebnisse mit den alten Cypress Ergebnissen also nicht mehr vergleichbar.


Laut 3D Center ist die Bildqualität bei den Barts @ default etwas schlechter. Das Banding hat AMD in den Griff bekommen, dennoch ist es nicht vollkommen verschwunden. Ein Beispiel ist Crysis, da kann es sehr wohl noch auftreten. Das Banding war auch nie wirklich ein Problem, sondern das flimmern und das tritt beim Bart noch etwas stärker auf.
AMD hat also lediglich Marketing betrieben, nicht und nicht weniger.
Ich finde den schritt von der CB schon richtig, wenn die Qualität im Verglich zum Cypress @ default etwas schlechter, dann gehört das auch veröffentlicht.

Und ich sage es nochmal. Nvidia hat man beim G70 vorgeworfen das sie auf kosten der BQ die FPS künstlich nach oben drücken. Das haben viele Testseiten bemängelt und beim G80 war das dann nicht mehr der Fall.
Das Ziel ist gute BQ und nicht einfach nur hohe FPS.


gruffi schrieb:
AMD hat gesagt, das mit Barts eine höhere Bildqualität eingestellt werden kann. Und das ist nicht falsch. Das gilt sogar, wenn du den gleichen Treiber und die gleiche Einstellung verwendest. AMD hat hingegen nie gesagt, dass die Bildqualität default neu vs default alt besser wäre.

Doch ist es.
Die BQ ist selbst mit HQ Einstellung im Treiber nicht besser als beim Cypress. Weniger Banding dafür etwas mehr flimmern ist nicht akzeptabel.
 
Bei G70 ist man aber nicht hingegangen und hat die BQ soweit angepasst, daß sie mit den X1k von ATi gleichauf war. ;)
 
@Fortissimo

Ich verstehe das Problem nicht. Man ändert ja im Prinzip gar nichts. Man testet seit einem Jahr mit A.I. Standard. AMD setzt im neuen Treiber A.I. Standard auf das frühere A.I. erweitert. Also ist es eigentlich normal, dass man weiter mit der früheren Bildqualität bencht.


Ehrlichgesagt verstehe ich das Problem einiger User nicht. Es scheint wirklich nur noch eine "ATI-Fraktion" zu geben, welche ATI möglichst toll aussehen lassen will - und das gegenteilige mit NV. Um wirkliche Vergleichbarkeit und neutrale Betrachtung scheint wohl kaum einer mehr Wert zu legen. Das ist irgendwo schade, da ich es nicht verstehen kann, wie man solche Praktiken (das unkommentierte Herabsetzen der Standardqualität) heute noch verteidigen kann.
 
FortissimoIV schrieb:
Bei G70 ist man aber nicht hingegangen und hat die BQ soweit angepasst, daß sie mit den X1k von ATi gleichauf war. ;)

Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

https://www.computerbase.de/artikel...gtx-512-test.510/seite-4#abschnitt_testsystem

Von daher macht CB das seit Jahren schon exakt so wie hier jetzt auch.
 
@FortissimoIV

seh ich nicht so. AMD hat ja nichts anderes gemacht als die Einstellungen getauscht. Bei den 5800er ist Standard jetzt sozusagen Off und Standard neu was schlechteres womit sie ein paar Prozent gewinnen. Find ich ziemlich dreist, es ist offensichtlich das sie dies dazu gemacht haben um in Benches besser dazustehen. Daher Unterstütze ich CB vollkommen, dass sie mit "den alten Settings" weitertesten, auch wenn dazu in Catalyst die Einstellung geändert werden muss um dies zu erreichen. Ich finds mittlerweile sogar äusserst mühsam das bei Treibersettings vom einen auf den anderen Treiber einfach Einstellungen "vertauscht" werden.
 
AMD sollte sich ein paar Leute von nVidia aufkaufen, die ausschlaggebend an der Darstellungsqualität mitgearbeitet haben ;)

Mir sind die qualitativen Unterschiede recht unwichtig, auf den Bildern sehe ich überhaupt keinen Unterschied, die Videos hatte ich mir allerdings noch nicht angeschaut.

Ich denke schon, dass die 5% mehr die schlechtere Qualität im Default rechtfertigen, schließlich ist das noch immer das unantastbare Kaufargument. AMD hat halt ein bisschen rumgetrickst, wer bessere Qualität haben will, kann es ja immer noch einstellen, also was soll der Schmu.


Und die 10€ Preisunterschied zwischen der herkömmlichen GTX 460 1GB und der 6850 sehe ich nicht so stark.
 
Zuletzt bearbeitet:
Ich schließe mich Fortissimo an.. Ich musste auch das video mehrmals ansehen, bis ich das flimmern sah. Die Mehrheit der Käufer wird dieses Flimmern nicht die Bohne intressieren. Und ich muss ganz klar sagen, dass dieser Test ein schlechtes Licht auf die 68xx wirft, Hierbei ist aber eher das Treibermanagement von AMD anzukreiden und nicht die Generation ansich

Einen Rückschritt nennt ihr ein Produkt was vergleichsweise gut ist wie der Vorgänger aber nur die Hälfte kostet und die Gleiche Leistung besitzt bei diversen Optmierungen? Ne Sry Jungs, überdenkt bitte euren Kurs nochmal
Entweder alle Karten mit Maximaler BQ benchen und auch Nvs schlechtes AA berücksichtigen oder es lassen und alles auf Standart benchen. Aber so ist es nichts halbes und nichts ganzes, und alles andre als Objektiv
 
@AMD-Mafiosi: Aber ohne Treiber keine Karte. Da kann der Chips nichts für, aber AMD und das kommt dann für den Endkunden ja aufs gleiche raus. Die Entscheidung kann man immer noch revidieren, wenn sich AMD umentscheidet, was bei den Treibern ja schnell gehen kann.
 
Eine kleine Entwarnung können wir insofern geben, als dass der Regler „High Quality“ die Qualität des anisotropen Filters wieder auf das Niveau von Catalyst A.I. Standard zurückstellt. (Zumindest meistens, denn in Half-Life 2 scheinen die Kiesel-Strukturen derart „AF-mordend“ zu sein, dass selbst High Quality nicht an die Qualität von A.I. Disabled heran kommt. Warum dies so ist, ist uns derzeit nicht ersichtlich, zumal der First-Person-Shooter das einzige Spiel ist, in dem uns das Verhalten aufgefallen ist.) Ein besseres Bild ist allerdings nicht möglich.

Irgendwie auch nicht ganz korrekt, nur Videos von HL2 dann zu uppen oder wollte man einen gewollten schlechteren Eindruck der AMDs erzeugen? ;-) Echt doof, dass es bei HL2 stärker flimmert, aber wenn es das einzige Spiel ist, indem es wirklich auffällt dann...
 
AMD-Mafiosi

seit wann kostet die 6000er Serie die Hälfte? eine 6870 ist kein Nachfolger der 5870, also wo bitte die Hälfte? Vergleiche es mit einer 5770. Und auch wenn es die Mehrheit der User nicht interessiert, so ist es doch jetzt kein Problem das CB weiterbencht wie bis anhin oder? Egal wie das Bild jetzt ausschaut, die benches sind dann nicht mehr vergleichbar.
 
FortissimoIV schrieb:
Bei G70 ist man aber nicht hingegangen und hat die BQ soweit angepasst, daß sie mit den X1k von ATi gleichauf war. ;)


Die CB ändert ja nichts.
Beim Bart ist die BQ Standarteinstellung schlechter als beim Cypress, die CB hebt lediglich die BQ auf Cypress Level was auch richtig ist.
Schneller bei schlechterer BQ geht gar nicht PUNKT. Die CB macht das ja nicht aus Spaß sondern um das BQ Niveau hoch zu halten.
Ob das jetzt jedem Auffällt oder nicht ist ja nicht das Thema. Den Testern ist es aufgefallen und es wurde Kritisiert.
 
HappyMutant schrieb:
@AMD-Mafiosi: Aber ohne Treiber keine Karte. Da kann der Chips nichts für, aber AMD und das kommt dann für den Endkunden ja aufs gleiche raus. Die Entscheidung kann man immer noch revidieren, wenn sich AMD umentscheidet, was bei den Treibern ja schnell gehen kann.

Nunja... manche Eigenschaften sind anscheinend nicht nur auf den Treiber zurückzuführen sondern wirklich auf die Chips. Denn identisch zu den PC-Pendanten ist es bei XBOX360 und PS3 auch so das der Grafikchip der PS3 alles etwas unschärfer darstellt als der der XBOX360.

Demnach sind solche Eigenschaften also auch Chipabhängig.
 
Naja das Hauptproblem an den Karten ist, man erwartet halt das sie besser sind, sprich besseres Preis/Leistung haben wie die Konkurenzkarten aus Nvidia haus, da Nvidai aber die Preise schnell stark gesenkt haben, sind sie nur noch gleich gut. Das mit Qualität sollte man nicht vergessen oder unerwähnt lassen, aber so ne Histerie drum machen so nach dem Motto (die Karten sind jetzt total schlecht, ich bestell meine bestellte Karte ab weil die qualität in allen settings 1000x schlechter ist) oder so änlich ist Blödsinn.

Wenn mans sachlich betrachtet ist die Karte jetzt gleich auf mit den Nvidia karten nach den Preissenkungen. Man erwartet halt von ner neuen Karte besonders vom Marktführer das sie ne karte raus bringen die mindestens 20% schneller und dabei 20% billiger ist. Aber das kann man wohl nicht erwarten, da selbst wenn das bei dem Release so ist, der Konkurent die Preise eben schnell anpasst, und wenns sein muss reduziert der die Preis so stark das er damit Verluste macht oder zumindest wenig bis kein Gewinn mehr. Weil das immernoch besser ist wie die Karten zu verschrotten.

Der Preiskampf ist wohl das entscheidende, und eben features wie Anschlüsse.

Ich sag nicht das das bloßer Humbug ist mit den anderen Default-settings, aber bitte nicht aus ner Kleinigkeit nen Rießen Problem machen und jetzt 90% stornierungen und 90% umstieg auf ne Karte von Nvidia die langsamer ist bei gleichen Grafiksettings dafür bischen billiger.
 
Also ich muss sagen interessanter artikel.

Auch wenn ich Notnick und Pilstrinker was die "Beurteilungsfähigkeit" des Flimmerns anhand der Videos zustimmen muss - es ist physikalisch eben nicht wumpe wie man das Bild aufzeichnet um derartige unterschiede im Bildaufbau störungsfrei nachzuweisen.
Der AF Filter ist in solchen Fällen eben doch "frequenz"gebunden.

Auch Complication verweist ebenfalls auf andere Artikel auf anderen Seiten zum Thema AF / AA und Flimmern und die Meinungen zu diesem Thema sind offenbar sehr weit verteilt - insofern ein Indiz dafür dass die "Unterschiede" zwischen nVidia und AMD wohl auch sehr gering sind und in der Größenordnung der "Nachweisbarkeitsgrenze" liegen.

Abgesehen davon finde ich es schon hammerhart wie lapidar CB ankündigt, die AMDs in zukünftigen Benches mit HQ zu testen die nVidias dagegen mit "default" antreten zu lassen.
https://www.computerbase.de/artikel/grafikkarten/bericht-radeon-hd-6800.1353/seite-16

DENN: das nvidia default AF mag zwar vielleicht nicht so stark flimmern oder gar "banden" - ABER es sieht dafür nachweislich bei einigen spielen deutlich "matschig" aus:
Nvidia 16AF default: https://pics.computerbase.de/3/1/4/2/3/45-1080.3185618783.jpg

Zum Vergleich mal HD6k 16xAF default: https://pics.computerbase.de/3/1/4/2/3/35-1080.3231517145.jpg
und HD6k 16x HQAF: https://pics.computerbase.de/3/1/4/2/3/57-1080.2369146942.jpg

Zum Abschluss dann noch das 16x HQAF von nvidia: https://pics.computerbase.de/3/1/4/2/3/28-1080.1524148355.jpg

Also wenn dann sollte man doch wohl HQAF mit HQAF vergleichen und einen Kommentar hinzufügne das bei HQAF auf nVidia karten das flimmern weniger ausgeprägt bis nicht vorhanden ist. Denn das etwas performantere (schnellere) 16xAF Default von nVidia liefert NICHT dasselbe an Bildqualität wie AMDs default oder HQAF, außer dass es vielleicht weniger flimmert...

Aber es gibt leute die stört das flimmern weniger als das unscharfe Bild des default AF bei nvidia.

IMHO sollte CB da wirklich nochmal gründlich drüber nachdenken was gebencht werden soll.

Wie andere auch schon gesagt haben ist es vielleicht besser alles mit Treiber default zu testen und dann lieber auf die Unterschiede eingehen. In gesonderten Artikeln kann ja (1x oder 2x mal im Jahr, von mir aus auch öfter) das ganze dann mit HQ und sonstigen Treiber-Einstellungen betrachtet werden.

Meiner Meinung nach erhält man so ein wesentlich besseres Bild der "Leistungslage" und die Treiberunterschied lassen sich als pro+contra punkte extra anführen.

Grüße
 
HappyMutant schrieb:
Hmm, wenn aber die Quintessenz ist, dass er den Test gar nicht erst in Gänze gelesen hat, wie relevant sind die anderen Punkte? Also ich meine so von wegen Glaubwürdigkeit?

Und im Endeffekt läuft sein Beitrag auf das folgende hinaus: Der Test soll den Leuten sagen, hey, wenn die Bildqualität schlechter ist, dann ist das kein Beinbruch, sieht man nicht. Natürlich kann jeder diese Meinung haben, kein Problem. Deswegen gibt es ja Bilder, Videos und eine ausführliche Betrachtung.

Aber wenn man die Glaubwürdigkeit davon abhängen soll, ob man so oder so testet, obwohl es für beides vernünftige Gründe gibt, dann ist das auch mal wieder übertrieben.



Mal geklickt? Ich sehe 7 Videos. Zwei davon... Naja, findest du selber raus.



Soll heißen, ein Vergleich Bildqualität irrelevant, weil man es eh nicht mit Bildern und Videos belegen kann? Willst du also sagen, es sei subjektiv? Frage ich mich was 3dcenter und Co. seit Jahren machen? Nochmal, lies den Bericht, steht echt viel zum Thema Bildquali drin.

Aber führst du auf, in welchen Bereichen nun die AMD-Karten besser sind, wenn es dir ums große Ganze geht. Das wäre nämlich mal interessanter, als anahnd von dir je nach Gutdünken ignorierter Videos zu bezweifeln, dass es in einigen Punkten etwas schlechter ist. Und das man das problemlos auch wieder auf das selbe Niveau hieven kann (im Gegensatz zum Banding der letzten Generation)?.

Du sagt immer, Bildqualität beinhaltet mehr als nur AF. Hast du völlig recht. Aber wo sind die Unterschiede denn derzeit sonst, wenn nicht da?
Natürlich habe ich den Test gelesen. Sonst hätte ich mir ja keine Gedanken dazu gemacht. Die Bilder habe ich mir geschenkt. Was soll das in Bezug aufs Flimmern bringen? Zu den Videos, sry, man sollte halt genauer hinschauen. Ich hatte mir lediglich das erste angeschaut. Spielt aber auch keine Rolle. Es geht eben mehr als nur um ein Video mit einer spezifischen Szene zu einem spezifischen Punkt. Und nein, im Bericht steht eben nicht viel zum Thema Bildqualität. Es steht nur was von AF, und auch das nur halbherzig.
Die Quintessenz ist, dass der Artikel viel zu oberflächlich ist und viel zu wenig Aussagekraft besitzt, um die Bildqualität beurteilen zu können. Und ich führe mit Sicherheit auch nicht nur Bereiche auf, wo AMD besser wäre. Fakt ist, dass aus vermeintlichen AMD Schwächen immer ein Politikum gemacht werden muss. Die nVidia Schwächen werden jedoch immer nur nebenbei erwähnt und als maximal Kavaliersdelikt abgetan. Und da kann etwas am Verhältnis nicht stimmen.


Ralf T schrieb:
Laut 3D Center ist die Bildqualität bei den Barts @ default etwas schlechter. Das Banding hat AMD in den Griff bekommen, dennoch ist es nicht vollkommen verschwunden. Ein Beispiel ist Crysis, da kann es sehr wohl noch auftreten. Das Banding war auch nie wirklich ein Problem, sondern das flimmern und das tritt beim Bart noch etwas stärker auf.
Womit wir wieder beim Thema subjektiv wären. Flimmern war für mich auch noch nie ein Problem. Und das dürfte bei Ottonormalverbrauchern nicht viel anders sein. Pixelhascher machen mir da leider viel zu viel Polemik damit.

Ralf T schrieb:
Und ich sage es nochmal. Nvidia hat man beim G70 vorgeworfen das sie auf kosten der BQ die FPS künstlich nach oben drücken. Das haben viele Testseiten bemängelt
Und hat man deswegen an den Treibern rumgeschraubt? Das wäre mir neu.

Ralf T schrieb:
Das Ziel ist gute BQ und nicht einfach nur hohe FPS.
Das Ziel ist ein gutes Gesamtpaket. Und dazu gehört mehr als FPS und Bildqualität.

Ralf T schrieb:
Die BQ ist selbst mit HQ Einstellung im Treiber nicht besser als beim Cypress. Weniger Banding dafür etwas mehr flimmern ist nicht akzeptabel.
Die Bildqualität ist mit gleichem Treiber und gleicher Einstellung besser. Genauso wie sie mit Barts HQ 10.10 besser als mit Cypress default 10.9 ist.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben