Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
KLEMSI schrieb:
höhere Auflösung --> mehr Speicher bringt Geschwindigkeitsvorteile
Berechnung von AA ähnlich der Berechnung in einer höheren Auflösung
somit bringt hier mehr Speicher sehr wohl etwas (Vergleiche Test von gleichwertigen Karten mit unterschiedlicher Speicherbestückung!) z.B PCGH Ausgabe 11/2010
nun hör ich aber auf, denn ich sehe, du hast keine Ahnung!

mehr VRAM steigert in hohen Auflösung die Bildrate!

aus PCGH 11/2010:
Starcraft mit GTX460 1GB @ 1920*1200 8xMSAA: 2 fps
2GB : 14,5 fps

Das ist ansich totaler Schwachsinn, weil man nur effekiv mehr FPS rausbekommt wenn der VRAM limietiert, was er aber nicht immer tut. Dazu kommt noch das ein höheres SI nur Vorteile bringt, wenn die Speicherbandbreite limietiert. Heutzutage eher ein kleines Problem aufgrund von Kompressionen zum Bandbreitensparen unter MSAA.
 
Nvidia stellt in 99 Prozent aller Fälle kein verschwommeneres Bild dar. Es kann höchjstens sein, dass du den besser arbeitenden AF-Algorithmus als verschwommen ansiehst. Hört sich komishc an, aber in dem Fall ist verschwommen besser. Denn eben durch die Schärfe des AMD-Bildes flimmert es dort ganz gerne.

@ Wolfgang

Gibt auch Menschen, die gerne diese " Schärfe des AMD-Bildes" haben... und "den besser arbeitenden AF-Algorithmus" nVidias eben, so wie z.B. ich, als absolutes KO-Kriterium sehen... ein kleiner objektiver Hinweis im Fazit würde die Lage entspannen...
 
Schaffe89 schrieb:
@y33H@

Ich frage mich greundlegend, warum du nicht darauf eingehst, dass es in anderen Spielen mit anderem Content deutlich weniger flimmert und somit ein Video bezüglich Half Life 2 nicht ausreicht um ein objektives Fazit zu ziehen.
Das wird ja hier bewusst von euch generell nicht kommuniziert und ignoriert, auch von CB schon den ganzen Thread lang.

Auch wenn es weniger flimmert, es flimmert immer noch - und immer noch mehr als bei Nvidia.
Und ich würde auch mal gerne wissen, warum sich jetzt einige an Half-Life 2 aufhängen? Wer den Artike liest sollte wissen, dass wir uns mehr als nur das Spiel angeschaut haben und das das Phänomen in mehr als nur dem Spiel zu sehen ist. Wir haben eben die Videos mit diesem aufgenommen, da der Titel sehr gut das Problem zeigt.

Und nochmal: Wenn wir jetzt auf HQ stellen, sind unsere Artikel gekauft und nicht mehr Objektiv? Dann waren es unsere zu G70-Zeiten auch nicht und wir haben AMD übels bevorteilt. Und danach alle Tests übrigens auch, da neues HQ mit altem AI Standard abgesehen vom Banding (was viel weniger problematisch ist als das Dlimmern) identisch ist. Also demnach wären alle unsere Tests ab 2005 Müll.

Man hätte ja nur ein bisschen relativieren müssen undnicht komplett auf dem Worst Case herumzureiten.
Wir beziehen uns doch nicht nur auf den Worst Case Fall. Würden wir das tuen wäre das tatsächlich nicht objektiv. Ich kann dir aber versichern, dass wir das nicht tun - ob du mir das jetzt glaubst kannst nur du entscheiden. Ich finde esaber wirklich schade, dass uns jetzt wieder so krass vorgeworfen wird, Pro-Nvidia zu sein. Wie gesagt, bei dem HD6000-Artikel waren wir noch pro AMD. Wir kritisieren hier jetzt eine Sache an und dadurch werden wir jetzt nicht alle AMD-Karten plötzlich bashen. Wir haben absichtlich nicht gewollt, die Produkte neu zu bewerten. Das vergisst aber irgendwie jeder. Stattdessen hauen jetzt lieber alle auf uns ein, weil wir was gegen AMD gesagt haben. Das AMD die Standardqualität verschlechtert hat scheint dagegen keinen zu interessieren. Und auf einer HD 5800 gibts kein Banding, was man als Pluspunkt nennen kann. Scheint aber keinen zu interessieren.

Ich weiß, dass das AF-Thema immer sehr kritisch und für einige nicht leicht zu vermitteln wird. Ich würde auch gerne einige einladen und dann könnte man ausführlich das Problem live auf dem Monitor zeigen, was 100x besser als irgendwelche Videos ist. Das geht aber nunmal leider schlecht. Und manche können auch keine Kantenglättung erkennen. Sollen wir deswegen generell auf AA verzichten? Genau das fordern einige hier im Prinzip von unserer Entscheidung, da sie das AF-Problem nicht selber nachvollziehen können.

Deswegen die Frage an Wolfgang, was für einen Monitor habt ihr denn verwendet, unter Testsystem findet sich eigentlich alles bis auf das Gerät welches das Bild wiedergibt und besteht evtl. die Möglichkeit den Test auf einem oder mehreren anderen TFT zu wiederholen, wenigstens Abschnittsweise, um meine Bedenken ein wenig zu zerstreuen, damit ich wieder ruhig schlafen kann und nicht von einem neuen Monitor träumen muss?
Das ist mal eine gute Frage! Wir haben den NEC 24WMGX³ verwendet, also den hier: https://www.computerbase.de/artikel/monitore/nec-multisync-24wmgx-test.950/

Der Monitor hat übrigens urchaus einen Einfluss darauf, ob man bzw. wie intensiv man das AF-Flimmern erkennt. Auf schlechten PN-Panels (es gibt auch gute) ist es zum Beispiel viel schwerer bis fast unmöglich als auf einem guten Display.
 
Zitat von Klemsi
und nicht nur über die Architektur erklärbar! (Billige Ausrede) Für mich eher ein Hinweis auf Optimierungen. Entweder von Nvidia 4xAA oder von AMD 8xAA.

Natürlich wird optimiert.Wer die besseren Kompressionen hat, hat einen Vorteil, aber nur wenn die Bandbreite auch limitiert, was oftmals nicht mehr der Fall war , aber früher zur GF3 Zeiten.

edit:
Was ich mich recht oft frage ist eigentlich eher, dass solche Leute wie Schaffe zwar behaupten den Unterschied zwischen SSAA und MSAA sehen können, dann aber nicht das Flimmern. Sehr konfus , vor allem weil man bei SSAA gezielt auf Texturen achtet. :rolleyes:
 
Zuletzt bearbeitet:
dlux schrieb:
Etwa 85% der verkauften DX11 Grafikkarten sind von AMD (und das nicht ohne Grund).

Ja, die Begründung ist auch sehr einfach - Nvidia hatte lange Zeit keine DX11 Karten im Angebot was die 85% von AMD erst ermöglicht hat...

btt.
Ich finde es gut von CB, dass sie sich dieser Thematik annehmen - auch bei der GF7 gab es ähnliche "Probleme" und diese wären bis heute da wenn es keiner Publik gemacht hätte...
So gesehen, profitieren wir alle davon.

Trotzdem wäre ich dafür, die FPS Ergebnisse ( Balken ) von Q & HQ übereinander zu legen damit jeder sofort sehen kann wie viel es ausmacht.
 
Mind 75% davon sind aber dann Lowend oder Midrangekarten, die Nvidia bis heute nur bedingt bieten kann.
 
Schaffe89 schrieb:
Naja, wenn du GTA4, Gothic 4 und Risen daheim hättest, könntest du sehen, dass es sehr wohl was bringt.
Wenn du generell MSAA nutzen kannst ist dies freilich besser, da MLAA das Bild leicht unscharf werden lässt.

Ich glaube dir kein Wort, wer deine Geschichte kennt weiß das glaubwürdig anders aussieht. Kannst du es beweisen? Ich glaube nicht.

Biteschön:
http://www.oc-burner.de/ftp/Videos/...Intel_tool)_Vergleich_ArcaniA-Gothic4_HQ.html

Flimmert so wie ohne MLAA. Tolles Feature. :evillol:

Aber wenn du Gothic 4 selber ausprobiert hättest, würdest du nicht so ein Unsinn erzählen.
 
Stattdessen hauen jetzt lieber alle auf uns ein, weil wir was gegen AMD gesagt haben.

Alle?

Nein, nicht Alle!

Das wäre zu viel der Ehre.

Ich kritisiere euch z.B. wegen der händischen Veränderung am Testobjekt selbst, was meiner Meinung nach ein Unding ist und mich dazu bringt, eure Tests in Zukunft nur noch mit ganz spitzen Fingern anzufassen.
 
Ich weiß zwar nicht ob das jemand vorhin im Thread schon erwähnt hat, aber ich schreibe es
trotzdem mal, einfach zu lang die Grundsatzdiskussion AMD/NV durchzulesen.

Im Fazit wird geschrieben: "Anders als AMD angibt, funktioniert MLAA derzeit übrigens nur unter DirectX 9. AMD hat uns dies mittlerweile bestätigt und erklärt, dass es sich dabei um einen Fehler handelt."

Warum kann CB nicht auch gleich die Problematik der Definitionsänderung der Einstellungen im Treiber ansprechen? Warum wurden die 5XXX runtergestuft auf "6XXX Niveau"? Treiberfehler, oder so gewollt? Das sind fragen die mich brennend intreressieren.

Im Letzten abschnitt wird dies als "Geschäftspraktik" umschrieben, die keine Unterstützung finden soll. Warum wird da nicht an dieser stelle explizit bei AMD nachgehackt?!
Oder habt ihr von AMD bestätigt bekommen, dass alles so seine Richtigkeit hat und das wir User uns nun mit der geringeren Bildqualität zufrieden geben müssen?
 
Der Monitor hat übrigens urchaus einen Einfluss darauf, ob man bzw. wie intensiv man das AF-Flimmern erkennt. Auf schlechten PN-Panels (es gibt auch gute) ist es zum Beispiel viel schwerer bis fast unmöglich als auf einem guten Display.

Und wie findet man nun heraus ob man einen guten Monitor bzw. schlechten hat?
 
Flimmert so wie ohne MLAA. Tolles Feature.

Ist ja auch kein Wunder. Aliasing ist auch ein Abtastproblem in der digitalen Technik. Sprich wenn man die Abtastrate nicht erhöht, was MLAA nicht macht, flimmert es schön weiter. Durch das Verblurren wirken lediglich die Übergänge farblich subjektiv glatter, weswegen es auf Screenshots auch besser aussieht.
 
ex()n schrieb:
Im Letzten abschnitt wird dies als "Geschäftspraktik" umschrieben, die keine Unterstützung finden soll. Warum wird da nicht an dieser stelle explizit bei AMD nachgehackt?!
Oder habt ihr von AMD bestätigt bekommen, dass alles so seine Richtigkeit hat und das wir User uns nun mit der geringeren Bildqualität zufrieden geben müssen?
Das ist so gewollt, was uns AMD auch bestätigt hat.

Und wie findet man nun heraus ob man einen guten Monitor bzw. schlechten hat?
Naja, die Formel "X" gibt es nicht :)
Aber man sollte anhand von Tests und genauso Userkritiken herausfinden können, in wie weit das Panel gut, schlecht bzw. was für Vor- und Nachteile es hat.
 
Mich,als "Otto normalverbraucher" und das dürften so ca. 95% aller Grafikkarten käufer sein,
ist es doch vollkommen egal, ob die neueste Graka in bestimmten einstellungen ein bischen
schlechter ist.
Denn die wenigsten Kunden kaufen sich jedes Jahr eine neue Graka,deshalb werden die meisten über die Super Leistung Ihrer neuen Grafikkarte von AMD oder Nvidia staunen.
Denn wollen wir doch mal erlich sein, die Unterschiede sind doch nun wirklich nicht so groß,das es den Otto.... auffallen würde, vorallen weil er ja keine Vergleichsmöglichkeit hat.
Also wird sich im großen ganzen alles über das P/L verhältniss regeln, und da ist AMD für mich
im Augenblick die bessere wahl. Das kann sich bis zu meinen nächsten Grafikkartenkauf natürlich wieder ändern.
 
so jetzt weiß niemand mehr was man kaufen soll perfeckt :D:D
aber mal nen schöner test ^^
aber jetzt ma die frage wie könnte man das AMD "problem" beheben??
ich denk ma mit nem neuen ccc oder etwa nicht??
Ergänzung ()

bpm du hast völlig recht :D:D also ich find auch die ATIs haben die nase vorne bei den benches aber bei der bildqualie liegen sie zurück jede graka hat ihren hacken :)
 
@StevyKing

Tja, das weiss derzeit wohl nur AMD.
Eventuell reicht eine Modifikation des Treibers, vielleicht liegts aber auch an der Hardware selbst. Darüber wird man hier nur spekulieren können.
 
jo leider :-/ naja egal abwarten vll wart ich jetzt och noch auf die 6950 (kurtze frage wann sollte die nochmal kommen?)
 
Mitte November war mein letzter Kenntnissstand.
 
Guter Test von CB.

Und erbärmliche Vorstellung von AMD.
Die auf den HD5xxx noch erreichbare Qualität mit A.I. off und Treibern bis 10.9, ist ja jetzt weder auf HD5xxx noch HD68xx überhaupt einstellbar seit dem 10.10 Treiber. DAS ist der eigentliche Skandal.
 
Wolfgang schrieb:
Und nochmal: Wenn wir jetzt auf HQ stellen, sind unsere Artikel gekauft und nicht mehr Objektiv? Dann waren es unsere zu G70-Zeiten auch nicht und wir haben AMD übels bevorteilt.

Dann hättet ihr gleiches auch bei der HD4k und HD3k machen müssen.
Es wäre doch einfach nur schön, auch ein anderes Video hochzuladen, das nicht den Worst Case darstellt.

Kisser schrieb:
Die auf den HD5xxx noch erreichbare Qualität mit A.I. off und Treibern bis 10.9, ist ja jetzt weder auf HD5xxx noch HD68xx überhaupt einstellbar seit dem 10.10 Treiber. DAS ist der eigentliche Skandal.

Nein. Selbst bei PCGH steht im Fazit, dass es trotzdem eine positive Entwicklung ist und man dem User mehr freiraum bei der Qualität erlaubt.
Das flimmern von Barts High Quality ist gleich gut wie das beste von der alten Serie.
AMD hat lediglich den Treiberstandard etwas verschlechtert, da etwas mer Flimmern auftritt, dafür aber kein bis wenig Banding.
Den Grund für die Verschlechterung kann man wohl in der etwas besseren Performance suchen, wobei ich das kaum glauben kann, dass man derart Kleinkariert ist. (AMD)

AI Off hat nichts gebracht, das verschlechterte die Qualität öfters, als dass die verbessert wurde.
Deswegen hat auch keiner dazu geraten den anzuschalten.

Videos dazu sind ab jetzt in meinem Youtububchannel zu finden.
Die nächsten Tage kommt ein Umfassender Vergleich, aller Einstellungen mit:

Gothic 4/Left4 Dead/Mass Effect2/Modern Warfare2/Medal of Honor/Battlefield Bad Company/MafiaII/Time Shift/Dragon Age Origins und Far Cry2.
Weitere Spielvorschläge nehme ich gerne an, hab eh alles da. ^^
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben