Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Ich finde den Schritt von CB auch richtig.
Warum? Weil die Bildqualität vergleichbar sein sollte.
Kann zwar sein dass der Unterschied vielen nicht auffällt bzw vollkommen egal ist (sieht man ja hier im Thread) aber oke ist das von AMD trotzdem nicht dass man nur wegen den paar % die Bildqualität herunterschraubt.

@CB

Ihr macht das richtig so, weil ansonsten müsstet ihr ja im Fazit zu jeder neuen Karte schreiben:
Noch schlechteres AF als bisher, lieber Nvidia kaufen.
Das würde auch keiner mögen^^

@all denen die Weitsicht fehlt.

Stellt euch vor jetzt kommt die neue HD 7989 und dort ist wieder das AF schlechter, allerdings nur soviel dass kaum ein Unterschied zur HD 6xxx (Standart Einstellungen jeweils) besteht bzw dass es die meisten nicht sehen. Dann sagt wieder jeder, sieht kein Mensch, böses CB.
Dann aber vergleicht man die HD 5xxx (mit den früheren Standart) mit der neuen HD7989 und man sieht einen gewaltigen Unterschied.

Versteht ihr worauf ich hinaus will?
 
Zuletzt bearbeitet:
Ich finde das ist Jammern auf hohem Niveau. Ich gehöre auch zu den Menschen, die kaum Unterschiede sehen. Mag sein, dass die Flimmershow u.U. auffallen würde, aber das bisschen hin und her ist mir egal. Vielleicht weil ich auch einen Monitor mit sehr feiner Lochmaske verwende.
ATI möchte eben die schnellsten Karten verkaufen mit dem besten P/L Verhältnis. Nvidia hat dagegen kaum schnellere bzw. ähnlich schnelle Karten im Angebot mit relativ wenigen Argumenten auf der Proseite.
Bei Nvidia geht der längere Balken auf Kosten der Lautstärke und Stromverbrauch. Bei ATI eben auf die BQ.
Letztlich ändern sich die Vorurteile nicht, der Unterschied ist eben, dass ATI nun oder eben bald die schnellsten Grafikkarten der Welt im Angebot hat.
 
Danke für die Videos, haben meinen Verdacht bestätigt dass es (subjektiv) kaum Unterschiede gibt. Liegt vlt. an der niedrigen Videoauflösung, aber Probleme habe ich weder mit der Bildqualität der AMD- wie auch der Nvidia-Produkte.
 
Wenn Ihr so auf AMDs schlechteres AF einschlagt und jetzt in den Tests sogar die BQ weg von den Standardeinstellungen hochschraubt, was ist dann mit nVidias "schlechterem" AA? Wird das jetzt in den Tests auch jeweils ne Stufe höher geschraubt?
Nein, würde keinen SInn machen. AMDs Maximaum-AF ist wenn überhaupt so gut wie Nvidias Standard-AF. Da würde es ja keine Vergleichbarkeit geben (uns ist klar das es keine absolute Vergleichbarkeit gibt, aber wir versuchen das bestmögliche daraus zu machen).

Bei G70 ist man aber nicht hingegangen und hat die BQ soweit angepasst, daß sie mit den X1k von ATi gleichauf war.
Natürlich haben wir das getan, was einige nur wieder vergessen zu haben scheinen...

Irgendwie auch nicht ganz korrekt, nur Videos von HL2 dann zu uppen oder wollte man einen gewollten schlechteren Eindruck der AMDs erzeugen? ;-) Echt doof, dass es bei HL2 stärker flimmert, aber wenn es das einzige Spiel ist, indem es wirklich auffällt dann...
Es fällt in mehr Spielen auf als es nicht auffällt ;)

Aber Mal ehrlich, kannst du (oder überhaupt jemand ?) die minimalen(!) Unterschiede auf den Fotos innerhalb von Sekundenbruchteilen feststellen?
In Videos bzw. im wirklichen Spiel schaffe ich es bei vielen Titeln am AF-Flimmern schnell zu erkennen, ob eine AMD- oder eine Nvidia-Karte drin steckt. Natürlich nicht in allen (weil das Problem eben mal mehr und mal weniger ausgeprägt ist), aber in vielen.
Und wie einmige richtig erkannt haben: Wir heben die Qualität eigentlich gar nicht an, sondern belassen sie auf dem alten Standard. Nur scheinen das viele gekonnt zu überlesen :(

3. Was ist das eigentlich für ein schlechter Bashingjournalismus.
Woher wisst ihr, dass Ati auch in zukünftigen Treibern die Default-Settings so haben werden?
Für mich sieht das ganze nach "wir haben hier eine Riesen Sensation gefunden" aus.
Das sagt AMD selber, dass das so absolute Absicht ist und so bleiben wird.

Es ist auch sehr Fragwürdig, wenn ihr schreibt MLAA ist Sinnfrei....wenn es offensichtlich Anwendungsgebiete wo es die AA Einsatzmöglichkeiten erweitert. Wenn es auch nur 5% der Spiele sein mögen......es ist eine weitere Option, die man Einsetzen kann, wenn Notwendig. Das ist an sich schon ein Plus, so wie ihr es schreibt, kommt bei mir letzlich ein Minus an.
Das haben wir nie getan! Warum müssen uns manche wenn es um AMD geht immer das schlimmste unterstellen? Wen hat es gestört als wir damals G70/G71 von Nvidia mit HQ gebencht haben wegen der Bildqualität? Niemand? Und jetzt regen sich alle auf.

Letzendlich gewinnt man bei eurem Nachtest den Eindruck, die 460 wäre der deutlich bessere Kauf. das zeigen zahlreiche Posts in den Kommentaren.
Das haben wir, erneut, nie getan! Wir haben, wie es im Artikel steht, absichtlich auf eine Neubewertung der Karten verzichtet. Aber macht ja mal wieder nichts...
 
insgesamt ein armutszeugnis für AMD, obwohl ich bisher immer zu AMD/ATi (CPU/GPU) tendiert habe.

eins ist sicher, meine nächste GraKa wird von nVidia sein!

3 Gründe:

- Kundenverarschung, wie von nVidia gewohnt, durch irreführende Namensgebung (5800/6800)
- schlechte Bildqualität: Texturflimmern, AA/AF-Qualität
- schlechte GPGPU unterstützung bei ATI-Stream

mit der 6800er Generation wird AMD einige treue Kunden verliehren und das zu recht!
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Und wie einmige richtig erkannt haben: Wir heben die Qualität eigentlich gar nicht an, sondern belassen sie auf dem alten Standard. Nur scheinen das viele gekonnt zu überlesen :(

Was aber nicht ganz zutrifft, da die HD68xx Serie kein bzw. nur noch minimales Banding hat.

@Digital_D99

- Achso, du kaufst ne NV weil die die Namensgebungsverarsche eingeführt und perfektioniert haben?
- Weder die ATI noch die NV haben eine schlechte BQ. ATI schlechteres AF, NV matschiges Bild!
- was willst du denn mit GPGPU Support? AFAIK setzt doch in zukunft eh alles auf OpenCL. Da ist ATI gleich zu NV! ;(
 
Zuletzt bearbeitet:
Hallo Wolfgang.
Wenn ihr den Treiberstandard von AMD, in dem ein Flimmern wahrzunehmen ist, ändert, um auf Nvidias Treiberstandard zu gelangen, dann sollte Nvidias Treiberstandard ebenfalls auf HQ gesetzt werden, denn deren verschwommen Bilder sind ebenfalls nicht vergleichbar. Warum wird nicht darüber geschrieben, das hier anscheinend mit AF Effekte retuschiert werden sollen, für die eigentlich AA zuständig ist?

Wenn HQ tatsächlich keine Leistungsverminderung verursacht, wie überall behauptet wird, wäre es nur Fair beide Einstellungen zu ändern, und auf den Umstand geringeres Flimmern hinzuweisen.

Digital_D99 schrieb:
- Kundenverarschung, wie von nVidia gewohnt, durch irreführende Namensgebung (5800/6800)

Bitte informiere dich hier ein wenig.
 
Mir ist das in Spielen noch nie aufgefallen. Auf den Videos jetzt ja, natürlich, aber in Spielen, noch nie.

Ist aber wirklich sehr arm von AMD, so den Leistungsbalken ihrer Karten künstlich zu verlängern.
Daumen runter!

Ich hab aber bei den Vids das Gefühl, dass GF100 High Quali auch ein bisschen flimmert. Natürlich längst nicht so stark wie bei AMD.

Mich persönlich störts nicht, da es mir noch nie aufgefallen ist. Wenn andere da empfindlicher sind, seien sie im Recht!
 
Es ist doch so:

Ab wo darf man denn das AF richtig kritisieren? Bei einem Flimmern, das nur 1% sieht, bei 5%, 10%?
Da man sich hier niemals auf eine Grenze einigen können wird, weil es immer welche gibt, die es sehen und solche die es nicht sehen, muss man das Übel direkt bei der Wurzel anpacken und direkt beim ersten Verdachtsmoment den Mund aufmachen.
Das ist die einzige "objektive" Grenze, denn wie sehr es Leute stört, wird man nie quantisieren oder bewerten können.
 
Toxi1965 schrieb:
Also ich bin jetzt 45 Jahre ....vieleicht muß ich mir wirklich eine Brille zulegen ( ist durchaus ernst gemeint )
Aber ich hab dafür keinen Blick .

Also ich hab mir die Bilder angesehen und mich gefragt....hmmm...was meinen die nur ...grübel .

Bischen erinnert das an das berühmte Haar in der Suppe ;)

Ich mit meinen 23 und Brille sehe da ebensowenig einen Unterschied, klar ob AA an oder aus ist klar,
Unschärfe wird bei manchen Spielen heut zu Tage sogar noch gewollt animiert
(Mafia2 schnelleres Fahren)
Gestochen scharf ist nicht immer Realitätsnah.

Flimmernde Texturen hmm unschön, aber ganz ehrlich mir bisher beim 10.10 mit meiner HD5870 noch nicht aufgefallen :rolleyes:

Ich denke man kann viel messen, im Endeffekt liegt es im Auge des Berachters und kaum
jemand hat 2 Systeme daheim wo man das direkt vergleichen kann, somit wird es
salopp gesagt "niemandem" auffallen oder gar interessieren.

Ich erinner mich noch an Zeiten da hatte NVIDIA das auch mal mit einem Treiber gemacht,
sie habs dann wieder ausgebügelt, oder vielleicht auch nicht!? :rolleyes:

Also die Moral von der Geschicht, Suppe kochen lohnt sich nicht. :D
 
milamber! schrieb:
Warum wird nicht darüber geschrieben, das hier anscheinend mit AF Effekte retuschiert werden sollen, für die eigentlich AA zuständig ist?
Von was redest du? AMD nutzt offenbar ein leicht negatives LoD, daher schärfer. Das sollte aber Sache des Devs sein.
 
Sehr guter Artikel.
Ich finde es konsequent, dass ihr zukünftig nur mit best möglichem AF der AMD Karten testet.
Nur so lässt sich AMD möglicherweise wieder zu besserer Standardbildqualität bewegen.
Hoffentlich bringen sie eines Tages ein AF(wenigstens auch als Option auswählbar), welches dem Nvidia HQ AF ebenbürtig ist.
Genug Power haben die AMD Karten sowieso, deshalb möchte ich auch als Kunde die Wahl haben, wo ich diese Power einsetze.
Achja, nur weil das AF Flimmern subjektiv unterschiedlich stark wahrgenommen wird, sollten die Hersteller keinen Freifahrtschein bekommen die Qualität ins Bodenlose sinken zu lassen.

Meiner Meinung nach wird eben genau das passieren, wenn es nicht kritische Webseiten wie Computerbase oder pcgh gibt, die auch mal etwas genauer hinschauen.
 
Wow Guter Test. Bin grad ein wenig Sprachlos was da AMD bietet, das die Karte schlechter als der Serie vorgänger ist wusste ich ja aber gleich noch schlechtere Bild Quali? Wie endet das den im 2D Zeitalter -.- Retro ist ja schon schön aber nicht auf einer Aktuellen GPU...
 
Also das Flimmern kann ich deutlich sehen und es ist bei den ATI Karten stärker, wenn ihr das Video vergrößert flimmert es dennnoch deutlich auf den Nvidia Karten. Fakt ist, beide GPUs verursachen Texturflimmern!

Digital_D99 schrieb:
insgesamt ein armutszeugnis für AMD, obwohl ich bisher immer zu AMD/ATi (CPU/GPU) tendiert habe.

eins ist sicher, meine nächste GraKa wird von nVidia sein!

3 Gründe:

- Kundenverarschung, wie von nVidia gewohnt, durch irreführende Namensgebung (5800/6800)
- schlechte Bildqualität: Texturflimmern, AA/AF-Qualität
- schlechte GPGPU unterstützung bei ATI-Stream

mit der 6800er Generation wird AMD einige treue Kunden verliehren und das zu recht!

Schlechte BQ, naja, man sieht den Unterschied quasi kaum. Aber es herrscht ja zum Glück Meinungs- und Entscheidungsfreiheit.

Meine Meinung ist das die Meisten es eh nicht merken würden und jetzt weil Magazine berichten, denken viele die Bildqulität wäre auf einmal extrem schlecht. AMD hat immer schon gefllimmert und mit der höheren Einstellung im Treiber ist doch alles beim alten, ich verstehe die Aufregung hier garnicht.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Das haben wir nie getan! Warum müssen uns manche wenn es um AMD geht immer das schlimmste unterstellen? Wen hat es gestört als wir damals G70/G71 von Nvidia mit HQ gebencht haben wegen der Bildqualität? Niemand? Und jetzt regen sich alle auf.


Das haben wir, erneut, nie getan! Wir haben, wie es im Artikel steht, absichtlich auf eine Neubewertung der Karten verzichtet. Aber macht ja mal wieder nichts...
Entweder stimmen deine Quotes nicht, oder ich habe keine Ahnung was du damit meinst.
Ich beziehe mich auf das MLAA, da hat die G70 garnichts drin zu suchen. Jedenfalls ist die Seite an sich sehr sehr negativ geschrieben, da werden dann Probleme beim erstellen der Screens aufgelistet etc. Mitunter Sachen, die garnichts mit dem MLAA zu tun haben sondern nur mit eurer Berichterstattung. Aber durch die vielen Probleme, die Unschärfe wirkt die Seite so wie "Finger weg vom MLAA", dass du das nicht geschrieben hast ist mir klar, aber so kommt es beim Leser an.
Genau so beim zweiten Teil meines Zitates, ihr habt es nicht explizit geschrieben, das habe ich auch nicht behauptet. Es kommt trotzdem bei vielen Lesern so an.
Es wird viel Kritik geübt, und das sicher auch zum Teil zurecht, aber dadurch, dass es einfach keinen Gegenpol gibt entsteht halt einfach ein sehr negativer Grundton.
Letzlich steht im Artikel:
1. Standard-AF herabgesetzt - , aber das ist nur eine Treiberoption die verändert wurde
2. Banding behoben +
3. MLAA eingeführt +

Um die Frage "Bildqualität: Fort- oder Rückschritt?" zu beantworten kann die Antwort nur sein: Fortschritt. Weil in der Hardware Verbesserungen stecken, und keine Schwächen. Wenn man euren Artikel liest spürt man einfach einen massiven Rückschritt.
Die Darstellung passt einfach nicht.

tomsen78 schrieb:
Also das Flimmern kann ich deutlich sehen und es ist bei den ATI Karten stärker, wenn ihr das Video vergrößert flimmert es dennnoch deutlich auf den Nvidia Karten. Fakt ist, beide GPUs verursachen Texturflimmern!
Was man natürlich auch nicht vergessen sollte, ist dass neben der geringen Auflösung und den geringen Bilder/Sek dass das Video obendrein noch komprimiert ist.
Was durchaus ähnliche Effekte wie das schlechtere AF hervorrufen kann. Beurteilen kann man es letztlich nur am Monitor im Spiel. Das hat Wolfgang ja auch gemacht, ich hoffe das hat er bei Realitätsnahen Settings gemacht hat, aber daran habe ich eigentlich keine Zweifel.
Letzendlich ist und bleibt die Wahrnehmung da aber auf jeden Fall subjektiv, das lässt sich nun mal nicht vermeiden. Aber da anscheinend vor allem die Standardeinstellung des Treibers geändert worden ist, kann sich ja jeder mit einer ATI 5X00 selber ein Bild davon machen.
Wobei das Flimmern ja auch schon seit längerem(schon immer?) Auftritt, deshalb sollte man das auch mit älteren Atis ungefähr reproduzieren können. Nicht mit einem genauen Bild sondern mit einer Vorstellung der Dimension in der der Qualitätsverlust liegt.
 
Zuletzt bearbeitet:
Die Videos sind imho zu niedrig aufgelöst. Man erkennt das Banding/Flimmern kaum, das ist bei höher aufgelösten Videos nicht der Fall.

720p hätten es schon sein dürfen.


Und dass bei AMD alles auf die "Goldwaage" gelegt wird und bei NV nicht ist wieder so eine unbegründete Aussage. Seit 5000er, eher 4000er hat AMD ein schlechtes AF mit Flimmern und Banding. Kein Wunder, dass man nur davon hört - NVs ist auf hohen Einstellungen quasi perfekt, dort gibt es kaum etwas zu meckern. Das ist weder die Schuld von CB noch von NV - einzig AMD ist dafür verantwortlich.
Weiter wird bei CB, wie tausendfach gesagt, nur der alte Treiberstandard aufrecht erhalten. Nur weil es jetzt "High Quality" vs. "Quality" heisst, ist es nicht plötzlich unfair :rolleyes:
 
Zuletzt bearbeitet:
Jo testet mal Age of Conan in DX10 mit G100 und den AMD Karten, da hat Nvidida auch stark geflimmert bei den Texturen (Und die Texturen sind erstklassig in Age of Conan), dies konnte ich nicht einmal mit der HQ Einstellung beheben. Von daher stark vom Game abhängig.
 
Interessant wäre noch der Vergleich zu G70 Q, HQ und einer HD2-4.
Würde auch gleichzeitig die Gegenstimmen besänftigen. (warum wehrt ihr euch eigentlich, in wie fern betrifft euch dieser Test?)
 
Werden dann die Taktraten einer 480 dann so weit runter geschraubt das die Karte genau so wenig Strom frisst wie eine 5870 um dann die Performance gegeneinander zu stellen? Oder so weit runter damit die Lautstärke genauso laut ist? Es gibt doch überall NAchteile aber genau bei dem Punkt läuft bei euch das Fass über? Pff...
 
Numrollen schrieb:
Werden dann die Taktraten einer 480 dann so weit runter geschraubt das die Karte genau so wenig Strom frisst wie eine 5870 um dann die Performance gegeneinander zu stellen?

Nene, es wird getestet ob ne 5870 genau so viel Strom verarbeiten kann.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben