Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Stärkeres Banding unter default.
Ebenfalls flimmerndes AF,allerdings weniger als bei AMD.
Wenn man Nvidias Bildqualität wirklich ganz intensiv untersucht, findet man auch da mit Sicherheit das Haar in der Suppe,spätestens wenn AMD die AF Qualität über Nvidianiveau anhebt. (Speku)

@y33H@

Ich bin nicht ignorant, im Gegenteil,ich akzeptiere das flimmrigere AF,aber nicht die Methodik, wie damit umgegangen wird, das sollte nun klar sein.
Fälschlicherweise behauptest du es trotzdem,ich würde ignorant sein.
Aber wenn ihr nur diese 3 WorstCase Beispiele aufzählt, ist der unglaubliche AF Flimmer Unterschied doch ein bisschen dünn, um deutlich Warnungen dagegen auszusprechen.:rolleyes:
 
Zuletzt bearbeitet:
Wie gesagt würde aber nicht ausschließlich von Performance/Preis abhängig machen, für mich wären die Anschlüsse ein wichtiger Punkt für andere vielleicht was anderes irgendwelche features der 2 Konkurenten..

Ich finde die Anschlüsse auch wichtig. Mein Displayport an meinem Dell U2711 schreit gerade zu danach auch einmal genutzt zu werden. Man sagt : Er würde die BQ erhöhen ! Problem : Kann er die Filterschwäche kompensieren und noch was drauf packen ?

AMD hat Highend Anschlüsse und hält es nicht für nötig, grundsätzlich über jeden Bild-Qualitätsmakel erhaben zu sein !

Hätte AMD gute Treiber und gute CF Unterstützung, dann wären sie eigentlich sehr interessant für mich. Aber auf billigheimende Nobel Experimente hab ich kein Bock !
 
Zuletzt bearbeitet:
Danke super Artikel
Ich hab mich eh gewundert warum meine 6850 manchmal flackert, hab jetzt die qualität auf high gestellt, jetzt passts einigermassen.
Ich finds nur gerecht, dass weitere tests nur noch mehr mit high gemacht werden.

Ich hab mir eh schon gedacht wo die Leistung her kommen soll, bei nur höhere Taktrate, kleinerem chip, weniger fläche etc.

Aber trotzdem, ich mag die Karte und für 150 ists sie es wert :)
 
Schaffe89 schrieb:
In Gothic4 siehts mit MLAA (jetzt funktionierts auf einmal) deutlich, deutlich besser aus, als ganz ohne Glättung.


MLAA funktioniert in Gothic 4 äußerst beschissen. Von deutlich kann überhaupt keine Rede sein. An diesen Äußerungen erkennt man immer wieder den Fanboy in dir, der sich ständig alles schönreden muss.
 
ist schon schade sowas. nun ja, ich bleibe mit meiner 58xx beim 10.9er. finde ich echt sau doof, dass der 10.10er die qualität der 58xx auf die der 68xx (manchmal) runterzieht.
 
Seh ich das richtig, dass man mit den richtigen treibereinstellungen das prob beheben kann?
(also (fast immer) die gleiche qualität bekommt wie mit dem catalyst 10.9?)
wo ist dann dass problem?
dass einstellungen plötzlich für was anderes stehen, wenn es grad passt, ist nichts außergewöhliches. das erlebt man überall, nicht nur bei gpus. das gibts bei amd, bei nvidia, bei creative, bei microsoft, bei apple...
ich glaube das hat jeder von uns schon mal erlebt...
 
Ralf555 schrieb:
MLAA funktioniert in Gothic 4 äußerst beschissen. Von deutlich kann überhaupt keine Rede sein. An diesen Äußerungen erkennt man immer wieder den Fanboy in dir, der sich ständig alles schönreden muss.

Naja du äußerst ja Polemik und Schwarzmalerei.
MLAA hat durchaus Sinn.
Aber nur in Games die ansonsten keine Glättungsmodi erlauben und das ist einfach so, das hat nichts mit einem Fanboy zu tun.
Dies behauptest du nur, weil dich das innerlich zufrieden stellt.
Außerdem verkenne ich die Lage gar nicht und behaupte auch nicht das AF der AMD Karte sei nicht schlechter, also was willst du eigentlich?

timuranamanu schrieb:
ch hab mich eh gewundert warum meine 6850 manchmal flackert,

Ich glaube du meinst flackernde Bildabschnitte, Bäume, Gebirge (wie bei gothic 4 etc..)
Die gibts bei Nvidia und ATI regelmäßig, in fast jedem Spiel.
Das liegt aber eher an der unsauberen programmierung des Spiels.

Arbiter Elite schrieb:
Willst du Bildqualität und Leistung, bekommst du das nur bei Nvidia.

Pauschal und unnötig, wie immer.
 
Schaffe89 schrieb:
Ich glaube du meinst flackernde Bildabschnitte, Bäume, Gebirge (wie bei gothic 4 etc..)
Die gibts bei Nvidia und ATI regelmäßig, in fast jedem Spiel.
Das liegt aber eher an der unsauberen programmierung des Spiels.

Woher willst du wissen was er meint?
Wenn er sagt das es so ist und das hat er nur mit seiner AMD Karte, kannste ihm nicht irgendwas unterschieben was er deiner Meinung nach meinen soll... :rolleyes:
 
Zuletzt bearbeitet:
Also die Leistung (Balkenlänge stimmt ja auch mit HQ bei der neuen AMD Karte um so unverständlicher ist es das man dem Spieler eine geringere Qualität als Treiberstandard zumutet. Die 68xxer haben auch so genug Power um mit den entsprechenden NV´s mitzuhalten. Es ist sicherlich richtig das viele Spieler den Unterschied nicht sehen, weil sie es nicht besser kennen.
Ein Hauptargument ist und bleibt nun mal der Speed bei Grakas und ja eine vielzahl von Spielern haben nach der Installation wohl noch nie das CP geöffnet geschweige denn von AA und SGSSA oder AF jemals was gehört.

Es wird sich dann aber in einschlägigen Foren schon mal beschwert wie scheiße das Spiel doch wohl programmiert ist.
Das es auch mal an der entsprechenden HW liegen könnte auf die Idee muss man ja nicht kommen und in den meisten Fällen sieht es ja noch besser aus wie auf den Consolen, wohlgemerkt noch.

Wenn wir als Spieler aber alles zulassen und jede Sche... auch noch hochjubeln weil ja schneller, werden wir schnell an einem Punkt angelangt sein wo miese IQ eben Standard ist und alle fragen sich dann wie konnte das nur passieren.

Das es immer noch weiter nach unten gehen kann beweist ja der neue Treiberstandard und ich bin mir sicher die NV Leute können das auch wenn nicht sogar noch besser, aber es bringt nur der Balkenlänge etwas und nicht uns Spielern, mir kann keiner erklären das man FPS Differenzen von 10 % merken kann und in fast allen Spielen reichen die FPS auch mit einer Karte die noch deutlich unter den 68xx er rangiert.
Aber gerade bei Karten die vorwiegend aus PL Sicht von Spielern gekauft werden und auch vorwiegend für so etwas genutzt werden sollte man die bestmögliche BQ bieten zumindest optional und dies auch entsprechend verkaufen.

Wenn man allerdings wie jetzt AMD die Kunden letztendlich mal so richtig verarascht und dann auch das ganze noch als Verbesserung verkauft ist das nur noch unverschämt und kann nicht hart genug mit solchen Tests bestraft werden.

Wenn die Jungs auf von PCGH und 3D-Center sich nicht mehr oder weniger durch Zufall mit der Sache beschäftigt hätten, hätte AMD gleich doppelt gewonnen, den die HD 5800er werden ja mit dem neuen Treiberstandard auch beglückt und da noch viel raffinierter den da muss man ab 10.10 nun AI abschalten damit man die alt gewohnte Qualität bekommt, davon kann man aber in den Treibern nichts nachlesen, oder ? Den kleinen Geschwindigkeitsboost nimmt man aber wohlwollend mit.

Als nächstes kommt dann NV auf die Idee den HQ Modus zu streichen, der Q reicht ja um die Nase leicht vor der Konkurenz zu haben und setzt dann den P oder gleich den HP Modus als Treiberstandard ein, willkommen in der Grakasteinzeit wo Bandbreite und Rechenleistung ein hohes Gut waren und man um jedes FPS in den Treiberabteilungen kämpfen musste.

2010 Haben wir jedoch Transistorenmonster mit Leistung satt und anstelle die zu nutzen um dem Kunden die bestmögliche IQ zu liefern investiert man in die letzte FPS Reserven die ein Spieler auf einer ATi nur in höchster FPS Not eingeschaltet hat "HP" und macht es mal schnell zum Treberstandard wenn ich dann hier noch lese das die ein oder andere personifizierte Dummheit das auch noch für gut heißt kann ich mir nur noch an den Kopf greifen da man eben nicht die Leistung kauft oder gekauft hat die die Balkenlänge suggerieren möchte und das noch nicht mal im Vergleich zum externen Mitbewerber NV sondern auch zur Hausinternen der HD 5800er Serie den die meisten Tests im Netzt sind bei dieser Serie noch mit dem 10.9 gemacht worden und dort ist der Treiberstandard eben noch HQ und nicht Q.
 
Ich habe ihm nichts untergeschoben.
Ich glaube nur, dass er mit Flackert nicht unbedingt den Boden vor seinen Füßen meint, sondern Gegenstände und Objekte, die weit in der Ferne sind.
Das ist bei jedem aktuellen Spiel auf Nvidia und AMD Grafikkarte nervig, liegt aber nicht am AF.

Angiesan schrieb:
Wenn wir als Spieler aber alles zulassen und jede Sche... auch noch hochjubeln weil ja schneller, werden wir schnell an einem Punkt angelangt sein wo miese IQ eben Standard ist und alle fragen sich dann wie konnte das nur passieren.

Da hast du auch vollkommen recht.
Aber das was du weiter unten schreibst grenzt schon fast wieder an das, womit der Thread Seitenweise zugespammt ist, nämlich Übertreibung und Polemik.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Ich habe ihm nichts untergeschoben.
Da hast du auch vollkommen recht.
Aber das was du weiter unten schreibst grenzt schon fast wieder an das, womit der Thread Seitenweise zugespammt ist, nämlich Übertreibung und Polemik.

Sorry, aber da ich auch noch Besitzer einer 5850 bin wenn auch im Zweitrechner regt das nur auf was die Herren sich da bei AMD ausgedacht haben. Sie verschieben meiner Meinung nach ein sehr gutes Produkt in den Bereich Mainstream wo es nach deren Meinung wohl nur halbblinde Konsumenten von Browserspielen gibt die das eh nie merken das man sich hier verschlechtert hat die schalten eh nie AF ein und Hauptsache man kann was tolles aus der PR raushauen und in den Tests glänzen. Das ist und war nie ATi das ist eine Philosophie die sich immer weiter von dem entfernt was ATi in meinen Augen mal war der Underdog dem ich gerne mein Geld gegeben habe für tolle Produkte auch wenn der Support nicht immer der Beste war aber oft auch für die ein oder andere Überraschung gut war, im positiven Sinne .
Aber das was Sie jetzt treiben ist eben einfach nur Kundenvera.... und da gibt es nichts zu übertreiben das ist Fakt.
 
Cayman wirds schon wieder richten, wäre eine frechheit wenn so ein High End produkt genauso filtern würde wie Barts. Nach der ganzen kritk die momentan herrscht lässt sich ATI sicherlich was einfallen, vielleicht verschieben sie die Karten auf januar.

Ich beziehe meine aussage lediglich auf das HALF LIFE 2 video, was Barts da im High Quality modus abzieht ist wirklich nicht mehr feierlich.
 
Zuletzt bearbeitet:
AMD bzw. ATI hatte ja bis jetzt immer einen gewissen Sympathie-Bonus bei mir gegenüber Nvidia. Die grünen Kalifornier waren mir einfach mit ihrem Geschäftsgebaren höchst unsympatisch.
Aber allein diese, ja man kann fast schon sagen "betrügerische", Namensgebung der neuen Karten ist mir schon sehr übel aufgestossen.
Und jetzt das bei der Bildqualität! Tut mir leid AMD, aber ihr habt einen an der Klatsche!
Weihnachten gibts ne neue Karte für mich und sie wird zum ersten mal seit über 4 Jahren nicht rot sein.
Chance gehabt, Chance vertan........
 
Zuletzt bearbeitet:
Irgendwie sind alle Grafikkarten da drausen schrott, nvidia zieht viel zu viel Strom und ist zu laut, Ati hat mit AF zu kämpfen, schrecklich.

Es wird wirklich zeit für neue, hoffentlich bewahrheitet sich das mit der GTX580, 20%schneller bei 20% weinger verbrauch ! Das wäre die perfekte Karte, lautstärke muss natürlich auch noch stimmen.

19 November werde ich mir markieren:
So far Nvidia hasn't said a lot about it's upcoming Geforce GTX 580 graphics card. The GTX 580 is confirmed to be released on the 19th of November. This will compete with the AMD Radeon 6970 (Cayman). It is also rumored to be 20% faster then the GTX 480. The product would be based on the GF110 silicon which has 512 active shader processors along with a 512bit memory bus. We have also received information that this card will run much cooler than the GTX 480 which should provide some decent headroom for overclocking. The cooling assembly resembles that of the GTX 470 as the heat-pipes are not exposed as with the GTX 480.
http://www.gnd-tech.com/main/content/407-GTX-580-Specs-and-Pictures
 
Zuletzt bearbeitet:
Ich meine es ist gut das CB den "Fehler" entdeckt hat und bin mir sicher ATI bekommt das in den Griff. Hab den alten 10.9 installiert und gut is. Was soll man sich drüber streiten. Viel interssanter wird Cayman.
 
Blumenkind schrieb:
1. Der altbekannte Autovergleich: Um zwei Autos zu vergleichen baue ich an das Auto A nicht extra einen Spoiler, damit es mit Auto B in Sachen Aussehen mithalten kann. Genauso wenig betreibe ich bei dem vermeintlich langsamerem Auto Chiptuning, um es auf ein "vergleichbareres" Niveau zu heben.
Sorry aber der Vergleich hakt doch extrem.
Es wird weder was angebaut oder verändert. Es wird eine Option im Treiber gewählt, die AMD anbietet. Wenn diese Option irgendwie schlecht wäre würde man sie nicht anbieten.

Das kannste (wenn man schon nen Auto-Vergleich machen will) eher mit dem "Sport-Modus" vergleichen den manche Autos bieten ums ein strafferes Fahrwerk zu bieten o.a.
Es ist eine Option und keine Änderung der "Hardware".

FortissimoIV schrieb:
...drehen wir dann jetzt bei nV auch das AA immer eine Stufe höher als bei AMD, weil AMD das bessere AA hat? Echt, das ist albern...

Jetzt, wo nV die Felle mal davonschwimmen, zum ersten mal seit GF8, wird wie zuvor hier schon erwähnt, ganz offensichtlich nach dem berühmten Haar in der Suppe gesucht.
Totaler Blödsinn. Bei den Standard-AA-Modi die hier getestet werden sind AMD und Nvidia gleichwertig.
Und was heißt wo hier Nvidia die Felle davonschwimmen? Wo Nvidia mit der Geforce7 auch nicht grad optimal da stand wurde auch das flimmern aufs schärfste kritisiert.


gruffi schrieb:
Erstens, der gewöhnliche User spielt nicht an den Einstellungen des Treibers herum. Ihr vermittelt daher eine falsche Performance.
Ich weiß nicht ob der gewöhnliche User diese Seite hier liest. Und wenn ja so wird er immerhin jetzt dafür sensibilisiert.
Es ist wichtiger zu zeigen was die Karten bei gleicher Bildqualität leisten, als bei ihren default Einstellungen.
Wem das nicht zusagt kann ja andere Tests lesen. Einstellungen stehen immer dabei.


Zweitens, Ergebnisse mit HQ (10.10) Barts werden gegenüber alten Cypress Tests (10.9 Standard) verfälscht und sind daher nicht mehr vergleichbar, da Barts in dem Fall höherwertiger filtert (Banding).
Man sollte daher Barts default 10.10 in diesem Punkt auch gleichwertig zu Cypress default 10.9 betrachten.
Und? Testest du auf Q werden andere Karten benachteiligt, weils flimmert. Da nimmt man eben eher den kleineren Unterschied (Banding) als den größeren (Flimmern).
Achtens, ihr werft AMD vor, sie hätten es wegen der Performance getan. Laut eurem Test liegt eine HD 6870 20-25% vor der Konkurrenz GTX 460 1 GiB und eine HD 6850 etwa 15% vor der Konkurrenz GTX 460 768 MiB. Selbst mit 5% weniger Performance würden die Radeons immer noch klar vorne liegen.
Wie kommst du auf das schmale Brett?
Die 6870 ist preislich der Gegenspieler der GTX470 und die 6850 der Gegenspieler der GTX460 1GB.
Und schwupps liegen die Karten mit vergleichbarer Bildqualität nicht mehr vorne sondern auf einem Niveau.


Die Vorwürfe sind also nicht sonderlich plausibel. Genauso wenig die Erklärung, ihr würdet jetzt anders testen, damit AMD etwas am AF verbessert. Das erreicht man auf diese Weise ganz gewiss nicht.
Hat doch schon mal geklappt. Nach massiver Kritik an der Winkelabhängigkeit war die auf einmal komplett weg.
Gar nichts zu tun ist sicher keine Option, dann sind wir irgendwann wieder bei dem AF einer Radeon 8500 oder den ganzen Tricksereien zu Zeiten der Geforce 5900.


Wie wäre es, wenn ihr in jeden ermittelten FPS Wert auch die Leistungsaufnahme einfliessen lasst, damit nVidia endlich mal diese verbessert? Stromhungrige, heisse und laute Systeme stören mich mehr als Pixelhascherei.
Das ist doch lächerlich.
Was spricht denn jetzt dagegen auf HQ zu testen um somit am ehesten vergleichbare Bildqualität zu bieten?
Die Leistungsaufnahme wird doch jedesmal bemängelt. Die Leistungaufnahme jedesmal einzurechnen ist doch nicht vernünftig realisierbar und imho auch quatsch. Da ist eine seperate Messung und Bewertung sinnvoller. Aber da mag jeder seine eigene Meinung haben.
 
Zuletzt bearbeitet: (falsche Aussage entfernt)
Das mit dem flimmern erachte ich als viel störender, den Banding ist sehr selten aufgetreten bei der alten generation
 
Auf den hier zum Download zur Verfügung gestellten Videos kann filterbedingtes Flimmern schon aus technischen Gründen nicht beurteilt werden, da die Bildwiederholrate der Videos mit derjenigen handelsüblicher Monitore Interferenzen bildet.

Ja, das ist korrekt zumindest was Fraps und meinen Monitor betrifft.
Wenn man Ingame spielt und sich nachher die Videos ansieht wird das Flimmern durch die Aufnahme von Fraps anscheinend nochmal etwas verstärkt.
Trotzdem bleiben die Videos aber aussagekräftig.

Ich hab jetzt Videos in Gothic 4 gemacht.
Einmal mitm alten G80 und einmal mit ner HD6870.
Es kommt besonders drauf an welchen Untergrund man beim AF wählt.
Wähle ich Steine auf der Burg (Forum) ist ein Flimmerunterschied zu erkennen.
Wähle ich Wiese, Erde oder Holzböden, gibt es keinen Unterschied.
Lade die Videos grade hoch.
Habe in allen Filtermodi aufgenommen.

Da die Videos derbe groß sind, wird erstmal nur Gothic 4 Barts Quality mit Nvidia default verglichen.
 
Zuletzt bearbeitet:
Was im Ganzen Artikel irgendwie untergeht, ist wie ich nun als Radeon Besitzer die Beste Texturen Qualität bekomme.

Hab es so verstanden

Anisotropische Filterung
[ ] Anwendungseinstellungen verwenden (Ohne Hacken)
Regler nach rechts -> 16x


Catalyst A.I.
Regler nach rechts -> Hohe Qualität

[X] Oberflächenformatoptimierung aktivieren


Sieht auch alles gut aus oder geht da noch mehr?
 
[X] Oberflächenformatoptimierung aktivieren <-- das muss man deaktivieren für mehr Qualität. Wobei das wohl ohnehin nur wenige Spiele betrifft.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben