Blumenkind schrieb:
1. Der altbekannte Autovergleich: Um zwei Autos zu vergleichen baue ich an das Auto A nicht extra einen Spoiler, damit es mit Auto B in Sachen Aussehen mithalten kann. Genauso wenig betreibe ich bei dem vermeintlich langsamerem Auto Chiptuning, um es auf ein "vergleichbareres" Niveau zu heben.
Sorry aber der Vergleich hakt doch extrem.
Es wird weder was angebaut oder verändert. Es wird eine Option im Treiber gewählt, die AMD anbietet. Wenn diese Option irgendwie schlecht wäre würde man sie nicht anbieten.
Das kannste (wenn man schon nen Auto-Vergleich machen will) eher mit dem "Sport-Modus" vergleichen den manche Autos bieten ums ein strafferes Fahrwerk zu bieten o.a.
Es ist eine Option und keine Änderung der "Hardware".
FortissimoIV schrieb:
...drehen wir dann jetzt bei nV auch das AA immer eine Stufe höher als bei AMD, weil AMD das bessere AA hat? Echt, das ist albern...
Jetzt, wo nV die Felle mal davonschwimmen, zum ersten mal seit GF8, wird wie zuvor hier schon erwähnt, ganz offensichtlich nach dem berühmten Haar in der Suppe gesucht.
Totaler Blödsinn. Bei den Standard-AA-Modi die hier getestet werden sind AMD und Nvidia gleichwertig.
Und was heißt wo hier Nvidia die Felle davonschwimmen? Wo Nvidia mit der Geforce7 auch nicht grad optimal da stand wurde auch das flimmern aufs schärfste kritisiert.
gruffi schrieb:
Erstens, der gewöhnliche User spielt nicht an den Einstellungen des Treibers herum. Ihr vermittelt daher eine falsche Performance.
Ich weiß nicht ob der gewöhnliche User diese Seite hier liest. Und wenn ja so wird er immerhin jetzt dafür sensibilisiert.
Es ist wichtiger zu zeigen was die Karten bei gleicher Bildqualität leisten, als bei ihren default Einstellungen.
Wem das nicht zusagt kann ja andere Tests lesen. Einstellungen stehen immer dabei.
Zweitens, Ergebnisse mit HQ (10.10) Barts werden gegenüber alten Cypress Tests (10.9 Standard) verfälscht und sind daher nicht mehr vergleichbar, da Barts in dem Fall höherwertiger filtert (Banding).
Man sollte daher Barts default 10.10 in diesem Punkt auch gleichwertig zu Cypress default 10.9 betrachten.
Und? Testest du auf Q werden andere Karten benachteiligt, weils flimmert. Da nimmt man eben eher den kleineren Unterschied (Banding) als den größeren (Flimmern).
Achtens, ihr werft AMD vor, sie hätten es wegen der Performance getan. Laut eurem Test liegt eine HD 6870 20-25% vor der Konkurrenz GTX 460 1 GiB und eine HD 6850 etwa 15% vor der Konkurrenz GTX 460 768 MiB. Selbst mit 5% weniger Performance würden die Radeons immer noch klar vorne liegen.
Wie kommst du auf das schmale Brett?
Die 6870 ist preislich der Gegenspieler der GTX470 und die 6850 der Gegenspieler der GTX460 1GB.
Und schwupps liegen die Karten mit vergleichbarer Bildqualität nicht mehr vorne sondern auf einem Niveau.
Die Vorwürfe sind also nicht sonderlich plausibel. Genauso wenig die Erklärung, ihr würdet jetzt anders testen, damit AMD etwas am AF verbessert. Das erreicht man auf diese Weise ganz gewiss nicht.
Hat doch schon mal geklappt. Nach massiver Kritik an der Winkelabhängigkeit war die auf einmal komplett weg.
Gar nichts zu tun ist sicher keine Option, dann sind wir irgendwann wieder bei dem AF einer Radeon 8500 oder den ganzen Tricksereien zu Zeiten der Geforce 5900.
Wie wäre es, wenn ihr in jeden ermittelten FPS Wert auch die Leistungsaufnahme einfliessen lasst, damit nVidia endlich mal diese verbessert? Stromhungrige, heisse und laute Systeme stören mich mehr als Pixelhascherei.
Das ist doch lächerlich.
Was spricht denn jetzt dagegen auf HQ zu testen um somit am ehesten vergleichbare Bildqualität zu bieten?
Die Leistungsaufnahme wird doch jedesmal bemängelt. Die Leistungaufnahme jedesmal einzurechnen ist doch nicht vernünftig realisierbar und imho auch quatsch. Da ist eine seperate Messung und Bewertung sinnvoller. Aber da mag jeder seine eigene Meinung haben.