Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
@Wolfgang:
Dein Test ist ausführlich und begründet - zumindest auf dem ersten Blick.
Eine unnötig, standardmäßig eingestellte Qualitätsminderung ist wirklich nicht zu loben!

Aber Mal ehrlich, kannst du (oder überhaupt jemand ?) die minimalen(!) Unterschiede auf den Fotos innerhalb von Sekundenbruchteilen feststellen?
Denn diese ist doch die Hauptvoraussetzung um auch in Spielen eine Verbesserung/Verschlechterung erkennen zu können.
So ist dieser Test auf dem zweiten Blick, schon nicht mehr so begründet und sogar naher der Kategorie "Gebashe"* zuzuordnen (Aquarium lässt grüßen).

knoxyz

*Wenn nicht von dir, dann von den Kommentatoren erfolgreich provoziert

Ich möchte betonen, dass ich ausschließlich diesen Test bewerte!
 
HappyMutant schrieb:

Wenn dem so ist - dann mea culpa. Dennoch gilt für den damaligen Test wie jetzt auch: WENN das so getestet wird, muss die betreffende Karte sowohl @default als auch @HQ auftauchen, denn die BQ ist und bleibt bei diesem hohen Niveau eine SUBJEKTIVE Wahrnehmung.

Ich finde es weiterhin mindestens unglücklich, so wie es jetzt auf CB in den Tests laufen soll.
 
ELMOKO schrieb:
und nicht zuvergessen gibt ja noch leute die extra ihre grafik runter schreiben um besser & und schneller im spiel die gegner zusehen.. und dafür brauche ich keine 240 euro nvidia & AMD karte.

für mich gilt Bildquali ok aber leistung muss sein..das die karte nicht bei jedem game zumruckelt. dazu brauche ich keine AA FA MSAA oder was weiß ich noch für zeugs was bei mir ey aus ist.

Laggy.NET schrieb:
Interessanter Test. Und schade für die ATI Karten. Ich verstehe nicht, warum ATI sich hier so schlechtreden lässt. Wegen den paar Prozent das Bild schlechter machen. Das ist lächerlich.

Mein Gott, dann schraubt man den Takt eben ein paar mhz nach oben, und lässt den Lüfter ein paar rpm schneller drehen.
Ihr seid schon wahrliche Pro's.....

Es ist egal, dass es Menschen gibt die ihre Konfiguration dahingehend ändern, um besser fraggen zu können, das ist nicht die Masse.
Genauso wenig ist es den meisten nicht egal mit schlechter Bildquali zu spielen, wenn du das in kauf nimmst ist es ok, aber nicht alle in eine Schublade werfen ELMOKO.

Genauso du Laggy.NET, nicht jeder "will" seine Hardware übertaken.
Bildqualität sollte auch mit Standardeinstellungen zu haben sein, wer einen Bildboni will schaltet halt AA+AF dazu.

Wozu gibt es dann überhaupt den Regler wo zwischen Leistung und Hoher Qualität gewählt werden kann?
Der wird dann absolut ad adsurdum geführt, wenn ich bei Hoher Qualität trotzdem einbußen hab.
Wenn ich mehr Leistung will, dann deaktiviere ich AA+AF, oder setze den Regler auf Leistung oder Hohe Leistung, aber beim Setting "Hohe Qualität" darf man auch erwarten, das jegliche Optimierungen deaktiviert werden.

NV hats auch gemacht, das fand und finde ich schon nicht gut, aber ATI verarscht genauso, und das hat mir heute morgen sehr sauer aufgestoßen wie ich den Artikel gelesen hab!
 
Zuletzt bearbeitet:
Wolfgang schrieb:
1. Bildqualität ist immer eine subjektive Sache. Im AF-Flimmer-Fall störts den einen eben sehr, der andere siehts und akzeptiert es aber und der andere sieht es gar nicht erst. Wie du sagst, da unterscheiden sich auch die "Anforderungen" eines Spielers an eine Grafikkarte.

2. Fraps kann beim Aufnehmen eines Videos die FPS limitieren, hat also einen FPS-limiter drin. Die aufgenommenen Videos liefen zum Zeitpunkt also auch nur mit 25 FPS. Glaub mir, es sieht auf dem Monitor genauso aus wie Fraps es aufnimmt und wie man es auf den Videos sieht. Das hat nichts mit Interferenzbildungen oder etwas anderem zu tun ;)

Zu 1.
FortissimoIV schrieb:
Und, ganz rational betrachtet, wenn Ihr tatsächlich hingeht und das AF der Radeons umstellt bis die BQ gleich ist, dann MÜSST Ihr eigentlich jede Radeon zweimal benchen - einmal @default und einmal @HQ. Ansonsten verfälscht Ihr die Tests.

2. Natürlich macht das ein Unterschied. Wenn man 2 Bilder Pro Sekunde die sich dann deutlich unterscheiden fällt das natürlich stärker auf, als ob man 120 Bilder die Sekunde hat, die sich weniger unterscheiden.
Und wenn man einen Auflösung von 4x4 Pixel hat, dann ist der Unterschied natürlicherweise auch grösser als ob man eine Auflösung von 1920x1080 hat.
Das ist beides total klar.
Ich habe die Videos selber nicht gesehen, aber es fällt doch auf, dass einige, die die Videos gesehen haben der Meinung sind, dass sie es noch nie so wie in den Videos wahrgenommen haben, zufall?

3. Was ist das eigentlich für ein schlechter Bashingjournalismus.
Woher wisst ihr, dass Ati auch in zukünftigen Treibern die Default-Settings so haben werden?
Für mich sieht das ganze nach "wir haben hier eine Riesen Sensation gefunden" aus.
Dass Ati immer wieder Treibermässig an ihren Filtern arbeitet ist wirklich nichts neues, und da gibt es Treiber die etwas besser arbeiten und andere, die etwas schlechter arbeiten.
Für mich bewirkt dieser Artikel nur die Verunsicherung von potentiellen Kartenkäufern.
Man bekommt und das ist ja nicht das erste Beispiel und ihr seit nicht das einzige Beispiel, dass Grafikkartenhersteller alles tun, um ihre Kunden bestmöglich über den Tisch zu ziehen.

Ich kenne kaum jemanden der tatsächlich mit seiner Grafikkarte wirklich unzufrieden ist, wenige Produkte haben solche zufriedenheitswerte, und erst recht nicht, wenn sie einer derartigen technischen Entwicklung unterliegen. Häufig wird in der Presse aber ein völlig anderes Bild gezeichnet.
Ich habe bisher soweit ich weiss keinen ausführlichen Artikel gelesen, in dem Treiber die Bildqualität verbessert haben....ist das etwa noch nie passiert....?

Es ist auch sehr Fragwürdig, wenn ihr schreibt MLAA ist Sinnfrei....wenn es offensichtlich Anwendungsgebiete wo es die AA Einsatzmöglichkeiten erweitert. Wenn es auch nur 5% der Spiele sein mögen......es ist eine weitere Option, die man Einsetzen kann, wenn Notwendig. Das ist an sich schon ein Plus, so wie ihr es schreibt, kommt bei mir letzlich ein Minus an.

Letzendlich gewinnt man bei eurem Nachtest den Eindruck, die 460 wäre der deutlich bessere Kauf. das zeigen zahlreiche Posts in den Kommentaren.
Fakt ist, dass die 6850 mit Release Treibern und zu release Preisen ohne AA/AF und mit euren subjektiven Einstellungen(high quality) beim PLV vorne liegt, bei 8xAA/16xAF gleich auf ist, und bei 4xAA/16xAF leicht hinten liegt.
Dieser Test wird wohl aber von Leuten vor allem in kommenden Monat zum Weihnachtsgeschäfft angeguckt, bis dahin wird sich sowohl am Treiber(zu Weihnachten wohl 10.12) als auch am Preis noch einiges ändern.
Zu vermuten ist, dass beide Grafikkarten Hersteller versuchen werden einen Gleichstand oder sogar eine Führung im PLV zu erreichen, ATI schafft es häufig leicht in Führung zu gehen.
Ich denke díeses mal wird es spannend, aber ich sehe gute Chancen, dass es Ati wieder einmal gelingt
 
knoxyz schrieb:
Aber Mal ehrlich, kannst du (oder überhaupt jemand ?) die minimalen(!) Unterschiede auf den Fotos innerhalb von Sekundenbruchteilen feststellen?


Flimmern und leichtes Banding lässt sich nur in Bewegung erkennen oder höchstens erahnen. Hartes Banding (Trackmania) auch auf screens.
 
geforce gamer schrieb:
Man muss ja vorsichtig sein was man schreibt hier,da der moderator happi mutant es gleich als spam auslegt,ich sage es mal so wer die beste bildqialität in spielen genissen will braucht immer noch eine nvidia karte.da der af filter bei nvidia auf hq bisher unereicht ist.die warheit zu schreiben wird ja noch erlaubt sein denke ich mal!?

Nunja, es ist OffTopic (wie mein Post jetzt) und entspricht leider nicht so ganz der Wahrheit! ;)
Es hält sich die Waage, NV hat den besseren AF Algo... dafür etwas matschigeres Bild und standardmäig schlechteres AA.

Leider ist es so das bei AMD/ATI immer jedes Bisschen auf die Goldwaage gelegt wird, bei NV aber vieles toleriert wird. So entstehen Eindrücke/Fronten welche es bei Objektivität nicht geben würde!
 
Zuletzt bearbeitet:
Ist ja witzig, ich kenne den Effekt, mir war aber nie bewusst das dies am Anisotropen Filter liegt. Mich hat dieser Umstand nie großartig interessiert, weshalb ich mich wohl auch nie zu dem Thema geäußert habe.
Ich will nicht behaupten das es mich nicht gestört hat, wenn es mir mal aufgefallen ist, aber es war wohl nicht so schlimm als das ich versucht habe es zu beseitigen. Hätte dann wohl herausgefunden das ich auf HQ stellen muß, dabei Spiel ich seit je her mit Quality auf meiner Nvidia.

Nach dem ich die Videos gesehen habe ist deutlich wo der Unterschied liegt, aber jetzt meine ich selbst unter HQ AF das Flimmern wahrnehmen zu können. Ich hoffe ich kann jetzt noch spielen ohne auf solche Dinge zu achten. :-O

Ich vermute, das Video wurde unter Half Life 2 erstellt, weil der Effekt hier am deutlichsten Auftritt? Habe ich zumindest mal gelesen das dies bei Source Spielen der Fall sein soll. Schade das dies nicht vermittelt wird, zumindest habe ich im Text keine deutlichen Hinweise gefunden, das hier der Worst Case dargestellt wird.

Bleibt zu hoffen das AMD hier zukünftig die höhere Qualität als Treiberstandard vorgibt, um den Usern das bessere Bild zu liefern, die sich nie mit diesen Einstellungen beschäftigen würden. Und das sie Zukünftig die Qualität verbessern. Hier besteht in jedem Fall Nachholbedarf.
Auf anderer Seite frage ich mich warum Nvidia nicht HQ vorgibt, wenn es kein Performanceverlust darstellen soll.

Aber das es für so etwas ganze Artikel erstellt werden? Mir hat es bei meiner Kaufentscheidung leider nicht geholfen. Nach dem ich eigentlich schon letztes Jahr zuschlagen wollte, aber die Preise immer höher stiegen, hab ich es sein gelassen, zumal ich nach wie vor alles spielen konnte.
Aber wenn ich bei den aktuellen Preisen nicht einkaufen gehe; es stand eigentlich schon fest das ich zu ner 460 1024 greife, wenn die Preise unter 130€ gesunken sind (was wohl bald der Fall sein wird), allen vorran weil ich mich durch das ganze Flimmern Gerede habe beeinflussen lassen. Aber jetzt bin ich mir da leider gar nicht mehr so sicher. :-/
 
Zuletzt bearbeitet:
Ich muss mich hier vielen auch anschließen und sagen, dass ich es nicht gut finde, die ATI-Treiber jetzt pauschal mit HQ zu testen. Das schadet der Vergleichbarkeit der Tests und kann beim nächsten Treiberrelease auch schon wieder anders aussehen.
Es muss grundsätzlich so sein, dass die Karten mit ihren Standardeinstellungen getestet werden. Es ist hier schon mehrfach angeklungen: Die NV-Karten werden auch nicht pauschal mit einer Stufe höheren AA getestet. Und NV-Karten werden auch nicht heruntergetaktet und undervoltet, damit sie die gleiche elektrische Energie verbraten wie ihre Konkurrenten.
Sollten sich bei Standardtestumgebungen Unterschiede bei den Probanden ergeben, dann kann darauf im Text, im Fazit, oder meinetwegen auch in der Überschrift hingewiesen werden. Aber bitte macht nicht so einen Unsinn und verdreht irgendwelche Treibereinstellungen weg vom Standard.
 
Das mit den flimmer ist nichts wirklich neues,das ist mir bei half live 2 auch erst aufgefallen nachdem nen kumpel mich drauf hingewiesen hatte,ich fand das bild auf der ati sogar erst schärfer aber bemerkte das starke flimmern erst beim zweiten durchlauf des videos.
 
Entweder alle Karten mit Maximaler BQ benchen und auch Nvs schlechtes AA berücksichtigen oder es lassen und alles auf Standart benchen.
Nur das AMD-HQ-AF nicht ganz an NV-HQ ran kommt und sich das ganze dann wieder ausgleicht und tatsächlich auf einem ähnlichen Niveau bewegt.


Wegen HL2, mit SGSSAA ist aber dann wieder perfektes AF angewendet? Oder lässt es sich überhaupt nicht mehr erzwingen?


seit wann kostet die 6000er Serie die Hälfte?
Sehr geschickter Schachzug von AMD, indem sie die Karten HD 6800 genannt haben, fühlen sie sich subjektiv an wie die Oberklasse und man meint der Preis ist genau so niedrig wie bei der HD 5. Falsch.

HD 4870 =(Speed) HD 5770 (130-140€)
HD 5870 =(Speed) HD 6870 (199€)

Wie man sieht ist die neue Mittelklasse ca. 50€ teurer als noch bei HD 5 und ihr könnt bei der HD 6970 auch gleich mal gesalzene Preise erwarten. Preis/Leistung ist zwar top, aber nicht der absolute Preis im Vergleich was frühere Mittelklasse gekostet hat.

Aber wirklich geschickt gemacht, hat sich Wolfgang noch bei der HD 5770 aufgeregt das die Karte 140€ kostet und nicht 120-130€ ist das Gemecker bei der HD 6870 verschwunden. AMDs Marketing hats hald doch drauf. :rolleyes:
 
Wolfgang schrieb:
Vielleicht gehörst du ja einfach zu den Glücklichen, denen das Flimmern nicht so auffällt. Wie erklärst du dir denn eigentlich, dass die Videos von GPU zu GPU und Einstellung zu Einstellung ziemlich anders aussehen, obwohl das Flimmern nach deiner Meinung durch die 25 FPS entstanden sind? (das ist jetzt nicht agressiv gemeint, auch wenns so klingt. Kriege es gerade irgendwie nicht anders formuliert :))
Ich gehöre leider eher zu den Unglücklichen, die recht sensitiv auf Flimmern/Flackern/Unschärfe und dgl. reagieren.

Deswegen fällt mir ja auch auf, daß auf den Videos am rechten Bildrand (rechts hinter dem Hausdach) ein Gerüst in der Gegend herumspringt, das mal da ist, mal weg, und mal woanders. Da scheint mir die Engine irgendwie seltsame Dinge zu betreiben.

Um Mißverständnisse zu vermeiden: Ich sehe das Flimmern, und es ist nicht die Bildwiederholfrequenz an sich, die da flimmert. Es ist eine Interferenz (Jedes Flimmern ist per Definition eine Interferenz). Solche Interferenzen hängen von diversen Einflussfaktoren ab. Wenn es ein Einzelfall ist, sagt es nichts über die Qualität der Filterung, denn eine sichere Unterbindung solcher Effekte wäre letztlich ein Tiefpass, der dann unter anderen Umständen Matsch bis hin zu Artefakten verursachen kann (siehe G80 und Bodentexturen in Crysis).

Ob die Filterung bei höherer Auflösung und/oder höherer Bildrate ihrer Auslegung halber optimaler ausfällt können die Videos schlecht zeigen. Dabei kämen unterschiedliche Filterauslegungen unterschiedlich zum Tragen, soweit es nicht an diesem komischen Spiel liegt.

Meine uralte GPU macht solches Flimmern jedenfalls nicht. Bei mir flimmert das AA (leicht und fallweise), aber nicht das AF. Ich habe allerdings sämtliche(!) Optimierungen über ATT aktiviert, und erhalte damit maximale Schärfe ohne Bugwellen bei perfekter Performance.
 
Zuletzt bearbeitet:
Iscaran schrieb:
DENN: das nvidia default AF mag zwar vielleicht nicht so stark flimmern oder gar "banden" - ABER es sieht dafür nachweislich bei einigen spielen deutlich "matschig" aus:
Nvidia 16AF default: https://pics.computerbase.de/3/1/4/2/3/45-1080.3185618783.jpg

Zum Vergleich mal HD6k 16xAF default: https://pics.computerbase.de/3/1/4/2/3/35-1080.3231517145.jpg
und HD6k 16x HQAF: https://pics.computerbase.de/3/1/4/2/3/57-1080.2369146942.jpg

Zum Abschluss dann noch das 16x HQAF von nvidia: https://pics.computerbase.de/3/1/4/2/3/28-1080.1524148355.jpg

Das ist mir schon vor in anderen Artikeln mal aufgefallen; dieses verschwommene kann gefallen, ist subjektiv, mir scheint es eher wie durch eine leichte Milchglasscheibe zu schauen.
Ergänzung ()

Kasmopaya schrieb:
Sehr geschickter Schachzug von AMD, indem sie die Karten HD 6800 genannt haben, fühlen sie sich subjektiv an wie die Oberklasse und man meint der Preis ist genau so niedrig wie bei der HD 5. Falsch.

HD 4870 =(Speed) HD 5770 (130-140€)
HD 5870 =(Speed) HD 6870 (199€)

Was redest du da? Die 6870 ist 65% schneller als ne 5770. Selbst als Nachfolger ner 5770 ist das zu schnell um sie beim selben Preis zu verkaufen. Akzeptier doch einfach endlich mal, das die 6870 zwischen der 5800 und 5700 positioniert ist.
Ausserdem waren 3870 und 4870 nie die oberklasse, die wurden beide unter 200€ verramscht.

Kasmopaya schrieb:
Wie man sieht ist die neue Mittelklasse ca. 50€ teurer als noch bei HD 5 und ihr könnt bei der HD 6970 auch gleich mal gesalzene Preise erwarten. Preis/Leistung ist zwar top, aber nicht der absolute Preis im Vergleich was frühere Mittelklasse gekostet hat.

Humbug, die 6870 leistet nahe einer 5870 und kostet zur Zeit 80€ weniger, und 150€ weniger als der Startpreis. Das ist auch nicht die Mittelklasse, sondern die gehobene Mittelklasse, untere Performanceklasse.

Allen vorran; schau dir die Preise der Konkurrenz an, am Preis gibts hier absolut nichts zu meckern.

Also verbiege doch bitte nicht die Welt, damit dein Gut/Böse Schema dort hinein passt.
 
Zuletzt bearbeitet:
mapel110 schrieb:
Schau dir die Videos an. Da ist alles wesentlich besser zu sehen als auf Screenshots.

großen unterschied sehe ich dort nicht.
 
Gratulation zur mutigen und mMn richtigen Entscheidung von CB !

Natürlich sollte man alles bei möglichst gleicher BQ testen.

@ Rot

Es gibt doch fps/Watt Benchmarks, wen's interessiert der kann sich die doch anschauen. In den Fazit's kommen die Erkenntnisse auch zur Geltung.

Eigentlich müßte man in jedem schriftlichen Fazit auch noch negativ erwähnen das AMD nicht im vollen Umfang auf NV Niveau im AF Bereich gelangen kann !
 
Ihr vergleicht hier Gurken mit Äpfel, oder besser um zum Autovergleich zurück zukommen einen BMW E46 M3 Touring mit einem Wiesmann(selber Motor)!!!!
beide vergleichbare Leistung aber unterschiedliche Zielgruppe und Anwendungsgebiete!
@AMD Mafiosi: deiner Meinung!
zum start der 6870er kostete die 5870 das doppelte(jetzt 2/3), und Radeon spricht mit diesen Karten Multiscreen Systemuser an!Die Neuerungen werden hier im Forum etwas niedergemacht finde ich und das obwohl es Nvidia meines Wissens nicht schafft in einer Auflösung von 5040x1050 battlefield bad company 2 in medium settings auf 3 Monitoren mit konstanten 45fps zu betreiben(siehe youtube)!
zudem kommen Rahmenkorrekturen und unzählige Multiscreenfunktionen und Einstellungsmöglichkeiten!
Ebenso wurden der neue Filter nicht mit dieser Auflösung getestet!
Die Diskussion über die Bildquali und Geschwindigkeit verstehe ich ohnedies nicht,Radeon war immer schneller und Nvidia immer schon schöner...
Radeon hat einen neuen Pfad eingeschlagen und kann daher nicht mehr mit Nvidia's verglichen werden!
ich jedenfalls hab sie mur jez bestellt und freu mich schon auf das gamingerlebniss auch wenn ich nicht die höchste Bildquali hab:)
 
Danke CB, die Angst ihr seid gekauft und würdet in Zukunft unfairere Tests durchführen war zum Glück unbegründet.

In Zeiten, wo der letzte große bekannte AF Schummelartikel kurz vorm 8800 GTX Launch veröffentlicht wurde (die 2 3DC Artikel auf die geizhals verlinkt), ist jeder kleine Schritt sehr willkommen.
Diese Kleinrederei hatten wir lange genug, das Resultat liegt vor uns, gesenkte Bildqualität. Ich bedanke mich hiermit herzlich bei all jenen, die dabei mitgeholfen haben, weiter so, G70 Q ist ganz nah.

Edit: Danke auch an AMD, Hoffnung auf eine Besserung innerhalb der nächsten wenigen Generationen ist nun endgültig gestorben, ich kotze jetzt.
 
Zuletzt bearbeitet:
Das kann ich echt nich verstehen...warum macht AMD das?
Treiberseitig darf da noch EINIGES nachgearbeitet werden.
Ich denke das Barts die Power hat in Sachen BQ einen Schritt vorwärts zu machen.
Mal sehen...vllt. dreht AMD bis Cayman noch etwas, aber ich bin ein wenig enttäuscht von der 6800 Serie im Gegensatz zur 5700er :/
 
Naja,

ich hab mir weder die Bilder noch die Videos angeschaut... wozu auch... wer schonmal Karten beider Hersteller hatte, weiß wo die Vor- und Nachteile für einen selber liegen. Zumindest wenn man den Treiber bedienen kann und weiß was die Einstellungen zu bewirken haben, gleiches gilt für die Grafikoptionen in Spielen.

Und wenn man nun weiß, dass CB die Bildqualität vergleicht, ist es auch gut... gibt ja auch andere Seiten mit "normalen" Tests... und wenn die CB Mannschaft das gleiche sieht, was ich sehe... wovon ich jetzt mal ausgehe, wird das Ganze auch relativ objektiv ausfallen.
 
Da mich dieses flimmern wahnsinnig stört, kann ich es nur begrüßen, wenn CB von nun an die HQ Einstellungen verwendet. Ansonsten würde eh der Kunde verarscht werden, was nützen denn 1 FPS mehr, wenn die BQ dafür bescheiden ist.
So wird bei mir nie eine ATI Karte kommen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben