AMD HD6000 / Barts FAQ - vor dem Test ist nach dem Test

Status
Für weitere Antworten geschlossen.
:D ja motion blur...

Ja ich kenne das ja. Aber bei mir ist das nicht so schlimm und außerdem liegts hier auch an dem maschendraht, oder meinst Du noch andere? (hm, vll. doch nochmal ansehen...)

warten...

so, ja wie ich mich erinnerte, flimmert doch nur der Zaunschatten, oder? Und dass liegt vermutl. an den Maschen und der gleichzeitigen schnellen bewegung!?
 
Eigentlich ist es ja OT und auch relativ sinnfrei, jedoch möchte ich sagen, dass sachlich gesehen sicherlich einige Sachen stimmen.

Bei der PCGH kommen nVidia und vor allem Intel einfach deutlich besser weg als in anderen Tests. In etlichen Artikeln steht, dass das Spiel mit einer Intel CPU wahnsinnig schneller läuft und beim Fermi war die Kritik am Stromverbrauch doch sehr verhalten, vielmehr hat man die GTX480 als tolle Alternative zur 5870 für den "Premiumzocker" hingestellt, der ohne "HQ-AF" und "SSAA in allen APIs" keine Spiele zocken kann.

Natürlich ist das verwirrend, ich selber hatte z.B. nach der Aussage, dass ein i5-750 in GTA 4 30% schneller als mein Phenom II ist, meine CPU auf 4GHz gebracht, um zu sehen ob mein Prozzi wirklich zu schwach ist - es hat nichts gebracht.

Man kann die PCGH schon lesen, teilweise stehen nette Sachen drin, man muss aber einfach als PC-User (der sich auch andere Seiten und Mags anschaut) die Sachen rausfiltern, die einfach nicht stimmen bzw. einen falschen Blick auf Tatsachen werfen.
Das ist schon schade für so eine Zeitschrift, gerade deswegen finde ich Kritk (sofern sie denn überhaubt gehört wird und nicht einfach als lächerlich abgetan wird) auf jeden Fall angebracht.

Das soll auf jeden Fall kein persönlicher Angriff, sondern einfach eine konstruktive Kritik auf Basis von Fakten sein, die viele Andere hier ja auch so empfinden.


Man möge mir das OT verzeihen, habs jedoch einfach als wichtig erachtet hier mal meine Sicht zu posten.
 
Ich kann die Kritik nicht nachvollziehen. Vor allem da sie offenbar auf zu wenig Detailverständnis beruht und sich daher Fehler einschleichen und in Folge PCGH schlecht dargestellt wird, entgegen der Fakten. DAS ist schade.

GTA IV läuft einem i5-760 de facto deutlich schneller als auf einem ähnlich teuren X4 970 BE und der Stromverbrauch der GF100-Karten wird durchgehend als klarer Minuspunkt genannt. Dass NV oder Intel besser wegkommen, ist Quatsch. Wenn man sich bei CB das CPU-Spiele-Rating unter 800 x 600 ansieht, also ohne GPU-Limit, sieht man ebenfalls, dass gerade die Core-i-CPUs enorm stark sind. Die Benches der HD6k wurden bei fast allen Seiten mit Q statt HQ angefertigt, was AMD einen Fps-Vorteil von 5-10% auf Kosten einer schlechteren Bildqualität verschafft. Wenn man solche Reviews mit dem von PCGH vergleicht, ist klar, dass hier die Radeons besser dastehen - ein fairer Vergleich ist das aber nicht. Keine andere Webseite ist derart penibel was die Dokumentierung von Benchmarks, Bildqualität und Co. angeht, trotzdem wird obgleich anderslautender Fakten Kritik für etwas geübt, wo es keine Kritik zu üben gibt.

Damit bin ich raus, PNs werden aber beanwortet, sofern vernünftig formuliert.
 
y33H@ schrieb:
Wir stehen mit AMD und NV in Kontakt. Aber auch die User müssen Bescheid wissen und ihren Teil an BQ einfordern. Wer nicht Bescheid weiß, kann nichts ändern.
Na ja, das ist jetzt aber auch etwas scheinheilig. Fakt ist, dass du alles immer nur aufs Flimmern reduzierst. Bildqualität beinhaltet aber wesentlich mehr.


angHellic schrieb:
Gruffi, der Punkt ist aber nicht die größe des chips, der Verbauch, Preis sondern µRuckler.
Deshalb kann man die Karten trotzdem vergleichen. Mikroruckler sind genauso wieder ein äusserst subjektives Thema. Und je höher die FPS sind, umso weniger wahrnehmbar. Soll ja auch Leute geben, die ein CF oder SLI Gespann in ihrem System haben. Soll man die ebenfalls nicht mehr vergleichen dürfen? Erklären wir deshalb alle Multi-GPU Setups für minderwertig? Ist wohl nicht wirklich sinnvoll. Zumal es ja auch noch andere Einsatzgebiete gibt. Für zB GPGPU sind Mikroruckler komplett irrelevant.


y33H@ schrieb:
Wenn man sich bei CB das CPU-Spiele-Rating unter 800 x 600 ansieht, also ohne GPU-Limit, sieht man ebenfalls, dass gerade die Core-i-CPUs enorm stark sind.
Das ist auch so etwas, was PCGH zurecht Kritik einbringt. Ihr mögt vielleicht Ahnung vom Testen von Spielen haben, ihr habt aber einfach zu wenig Ahnung von der Technik ansich. Und obwohl man dir das schon mehrfach erklärt hat, ihr ignoriert es einfach, anstatt sich mal intensiver mit der Materie zu befassen. Die GPU ist immer ein limitierender Faktor. Das gilt für niedrigere Auflösungen genauso wie für grössere. Was sich mit Auflösung, Detailgrad, usw ändert, ist die Relationen zwischen CPU, GPU und I/O. Deshalb kann man nicht einfach behaupten, eine CPU ist bei 800x600 überlegen, deshalb ist sie das auch bei 1920x1200. Man muss zudem immer das Gesamtpaket betrachten. Auch das zeigen Reviews viel zu selten. Was nützt mir eine neue CPU, die vielleicht 10% mehr FPS liefert, wenn man das Geld genauso in eine neue Grafikkarte investieren kann und damit 50% mehr FPS herausholt?

y33H@ schrieb:
Die Benches der HD6k wurden bei fast allen Seiten mit Q statt HQ angefertigt, was AMD einen Fps-Vorteil von 5-10% auf Kosten einer schlechteren Bildqualität verschafft.
Siehst du, du machst es schon wieder. Barts mit Catalyst 10.10 default hat keine schlechtere Bildqualität per se, weder im Vergleich zu Cypress mit Catalyst 10.9 default, noch im Vergleich zu einer GeForce default. Und auch deine Prozentangaben sind aus der Luft gegegriffen. HT4U hat 8 Spiele auf Q und HQ des Catalyst 10.10 verglichen. 5 davon zeigten überhaupt keine Performanceunterschiede, bei 2 waren es 5%, bei einem 10%. Das sind im Schnitt also gerade mal 2-3% und nicht 5-10%. PCGH wird hier zurecht kritisiert, weil sie nicht fair testen und Dinge behaupten, die gar nicht stimmen. Und das müsst ihr endlich mal einsehen, anstatt auf stur zu schalten. Ihr verlangt von Usern und Herstellern, dass sie sich eurer Kritik annehmen. Selbst seid ihr aber nicht dazu bereit, mit Kritik umzugehen. Und mit dieser Doppelmoral braucht ihr euch auch nicht über entsprechende Reaktionen wundern.
 
Wie MGPU-Tests zeigen, ist eine CPU in 800 x 600 mit einer GPU einer anderen CPU genauso überlegen, wie in 1920 x 1200 mit 2-3 GPUs. Da tut sich fast nichts. Und ob eine GPU für den gleichen Aufpreis mehr Fps bringt, als die CPU aufzurüsten, ist nicht Teil eines CPU-Tests, sondern eines Aufrüst-Artikels oder einer Kaufempfehlung. Erwähnen kann man es dennoch. Und so gerne ich HT4U mag, wenn ich Q vs. HQ teste und dabei eine hohe Auflösung samt MSAA verwende, ist die Aussagekraft gleich Null, da hier nicht die TMUs bremsen. Das solltest du, gerade wenn du den Punkt "zu wenig Ahnung von der Technik ansich" anbringst, auf jeden Fall beachten und noch mal drüber nachdenken. Worst-Case-Fälle zeigen gar +15% zugunsten von Q statt HQ bei AMD. Und eine Reduktion nur auf das Flimmern findet ebenfalls nicht statt, sonst wäre das Banding nicht ins Gespräch gekommen. Und AMD hätte es vermutlich auch nicht gefixt. Und Barts mit Q filtert schlechter als NVs Standard, da Q dem alten "AI Advanced" entspricht (ohne HW-Bug-Banding, dafür stärkeres Bri-Band und mehr flimmern). Bitte beschäftige dich mit den Fakten und den Hintergründen, bevor du falsche Behauptungen aufstellst. PCGH testet fair und transparent, basierend auf Fakten, die kommuniziert werden - auch den IHVs.
 
Multi-GPU Tests waren bezogen auf CPU-, GPU- und I/O-Skalierung nicht das Thema. Ausserdem hast du dort die gleiche Problematik. Und dass sich CPUs mit Multi-GPUs Setups gleich verhalten, stimmt so pauschal auch nicht. Genauso wenig hat jemand explizit von CPU Tests gesprochen. Bei CPU Tests haben Spiele eh nur eine untergeordnete Rolle. Der Grossteil des Marktes nutzt CPUs in PC Systemen nunmal nicht zum Spielen. Dass HT4U bei diesen Settings testet, ist auch völlig richtig. Niemand spielt mit einer HD 68xx bei 800x600 und ohne AA. Und wer sagt denn, dass der prozentuale Unterschied bei anderen Auflösungen anders ausfällt? Hast du Tests, die das belegen? Barts auf Q bietet zudem keine schlechtere Qualität als nVidia. Jeder hat hier Vor- und Nachteile. Unterm Strich nimmt sich das nichts und hängt sowieso vom subjektiven Eindruck ab. Bitte beschäftige dich mit den Fakten und den Hintergründen, bevor du falsche Behauptungen aufstellst. PCGH testet nicht fair, zumindest von Zeit zu Zeit. Und transparent ist bei weitem auch nicht alles.
 
Mich erinnert das an Kasmo, dem hats auch nicht gefallen, das ich ihm meine Meinung gesagt habe.
Zugegeben, das habe ich ziemlich oft, aber der Kerl bietet einem auch Steilvorlagen, da kann man nur von träumen.

Mir fällt bei der Sache nur noch eines zu ein;

301010014518_donttalk.jpg
301010014540_tear.jpg

Und nu diskutiert doch noch ein wenig über die flimmernden Sechsachter ... vielleicht klappts ja, und ich kauf mir tatsächlich ne Viersechzig. :hammer_alt:
 
gruffi schrieb:
Barts auf Q bietet zudem keine schlechtere Qualität als nVidia. Jeder hat hier Vor- und Nachteile. Unterm Strich nimmt sich das nichts und hängt sowieso vom subjektiven Eindruck ab. Bitte beschäftige dich mit den Fakten und den Hintergründen, bevor du falsche Behauptungen aufstellst.

Sry aber andere Leute belehren wollen und selber keine Ahnung haben?:rolleyes:

Nach dem CB Artikel von heute sollte wohl endgültig auch vom größten Fanboy akzeptiert werden, dass es einen Unterschied in der Bildqualität gibt. Nicht um sonst will CB in zukunft mit HQ testen...
 
y33H@ schrieb:
Und so gerne ich HT4U mag, wenn ich Q vs. HQ teste und dabei eine hohe Auflösung samt MSAA verwende, ist die Aussagekraft gleich Null, da hier nicht die TMUs bremsen.

Also muss ich ein irrelevantes Setting finden in denen die Tmu´s nicht limitieren und nun poste ich diese Ergebnisse, damit ich den Abstand am größtmöglichsten aufzeigen kann?

Das ist schlicht ein Fail.
So wie HT4U testet ist es völlig in Ordnung, weil damit auch die Leute spielen.
Bei CB sinds 1 bis 6%.
Wie verhält sich dazu eigentlich der neue Treiber 10.a oder 10.c?
 
Na ja, das ist jetzt aber auch etwas scheinheilig. Fakt ist, dass du alles immer nur aufs Flimmern reduzierst. Bildqualität beinhaltet aber wesentlich mehr.
Natürlich beinhaltet es mehr, aber dafür ist AF dann nicht zuständig. Eines der Hauptaufgaben des Filters ist es Texturaliasing zu verringern, welches sich halt durch Flimmern äußert.

. Barts mit Catalyst 10.10 default hat keine schlechtere Bildqualität per se, weder im Vergleich zu Cypress mit Catalyst 10.9 default, noch im Vergleich zu einer GeForce default.
Deswegen springen auch immer mehr Redakteure auf den Zug auf. ;)
Siehe neues CB Review.

Was nützt mir eine neue CPU, die vielleicht 10% mehr FPS liefert, wenn man das Geld genauso in eine neue Grafikkarte investieren kann und damit 50% mehr FPS herausholt?

Das muss der Kunde abwägen und nicht der Tester. :rolleyes:
 
Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.


Gute Entscheidung. Der Artikel sollte dem ein oder anderen AMD Freund mal die Augen öffnen.
 
Benni16it schrieb:
Nach dem CB Artikel von heute ...
Airbag schrieb:
Deswegen springen auch immer mehr Redakteure auf den Zug auf. ;)
Siehe neues CB Review.
Nur ist der Artikel viel zu oberflächlich und besitzt keine Aussagekraft für generelle Bildqualität. Er beschäftigt sich lediglich mit AF, und auch das nur halbherzig. Was ist daran jetzt neu? Das Thema gab es schon zur Genüge. Was CB, mal abgesehen von den nVidia Verfechter, einiges an Kritik einbringen wird, zurecht. Und ob das der Sinn war, darf bezweifelt werden. Am Ende geht es nämlich mal wieder um die Glaubwürdigkeit der Printmedien, PCGH kann da ein Lied von singen, und nicht ums eigentliche Thema. Eine leider sehr unglückliche und überstürzte Aktion von CB. Mehr kann man dazu nicht sagen.
 
gruffi schrieb:
Barts auf Q bietet zudem keine schlechtere Qualität als nVidia.
Selbst nachdem CB nun auch PCGH bestätigt und AMD es schon längst bestätigt hat, stellst du nach wie vor eine derart falsche Behauptung in den Raum und fügst hinzu, "Sry CB, damit habt ihr für mich jegliche Glaubwürdigkeit verloren". Wenn, dann bist du es, der unglaubwürdig ist :rolleyes:

Aber bei dir ist diesbezüglich ja (leider) nichts zu holen. Schade, zumal du in einigen Bereichen wirklich Ahnung hast.
 
Tja, das kommt halt davon, wenn man zu stur ist und nur die Sachen sieht, die man sehen will. Aber in der Beziehung scheint bei dir eh alles verloren zu sein.

Ich könnte ja jetzt hingegen und ganz gezielt mir ein Szenario aussuchen wie

Oblivion Barts Q vs Oblivion GF100 Q

und behaupten, die Radeon bietet die bessere Bildqualität, da das Bild der GeForce zu matschig und unscharf ausschaut. Aber das willst du sicherlich nicht hören, oder? Halt jeder so wie er es braucht. Und das scheint besonders für dich zu gelten.

Jeder hat seine Vor- und Nachteile. Und das sollte man auch sachlich in seiner Gesamtheit abwägen, anstatt sich immer wieder auf ein bestimmtes Szenario einzuschiessen, so wie du das gefühlt seit hundert Jahren mit AF machst. Wann begreifst du endlich mal, welchen Unsinn du eigentlich veranstaltest? :rolleyes:
 
Ach, ich lasse es sein. Ich ruiniere mir an dir nur meine Nerven und das bist du einfach nicht wert.

PCGH hat es aufgezeigt, CB bestätigt es, HT4U auch und AMD sowieso. Du stehst alleine.
 
Nee, nur du stehst alleine. PCGH mach sich lächerlich und CB scheint sich davon leider blenden zu lassen. AMD sagt jedenfalls was anderes als ihr. Und HT4U hat im Gegensatz zu euch fair getestet. Zwar keine default Treibereinstellungen, aber immerhin auf beiden Seiten HQ.
 
Nur ist der Artikel viel zu oberflächlich und besitzt keine Aussagekraft für generelle Bildqualität. Er beschäftigt sich lediglich mit AF, und auch das nur halbherzig

Wenn sich bis auf AF und MLAA nichts geändert hat, sehe ich auch keinen Sinn darin, weiter auf andere Aspekt einzugehen. Zumal es auch nur eine Ergänzung zum Review ist.
 
Der Artikel tönt aber gross
Bildqualität: Fort- oder Rückschritt?
Und wenn es um Bildqualität geht, dann erwarte ich mehr als nur ein halbherziger AF Anriss. Erst recht, wenn man mit der Konkurrenz vergleicht.
 
gruffi schrieb:
Ich könnte ja jetzt hingegen und ganz gezielt mir ein Szenario aussuchen wie

Oblivion Barts Q vs Oblivion GF100 Q

und behaupten, die Radeon bietet die bessere Bildqualität, da das Bild der GeForce zu matschig und unscharf ausschaut. Aber das willst du sicherlich nicht hören, oder? Halt jeder so wie er es braucht. Und das scheint besonders für dich zu gelten.


Wo ist das schärfer? Das einzige was ich sehe (und was du wieder unterschlägst) ist die bessere Kantenglättung bei Nvidia. Die fällt deutlich ins Auge.
 
CB hatte ein falsches Bild online, gruffi ist diesem Fehler auf den Leim gegangen :lol:

Nun ist's behoben, daher gleich scharf.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben