PCGH Testet High vs. Standard Eisntellungen?

Kellergeist

Banned
Registriert
Juli 2008
Beiträge
453
Hallo Leute,

ich hab den Threat gesucht wo das schonmal diskutiert wurde aber nicht gefunden. Sagt mir mal bitte nochmal jemand wie das genau war? Wenn man den Test anschaut bei PCGH zwischen GTX 280, GTX, 260, HD4850, HD4870 dann sind bei den Nvidia Treiber die Details auf High getellt und bei ATI auf Standard. Eigentlich ist das nicht ok oder? Denn klar sind die Karten von Nvidia dann im Gesamtbild langsamer wie wenn man sie auf Standard hätte laufen lassen oder? Oder kann mir das jemand nochmal erklären wie sich das genau verhält. Y33H kennt sich da gut aus und wusste das damals gut zu erklären glaub ich.
 
Die beste BQ bei nV erreicht man durch manuelles Deaktivieren der Textur-Optimierungen (welche eine schechtere BQ und mehr Fps bringen) und der Aktivierung von "High Quality". Bei den Radeons wäre AI-off optisch die beste Wahl, allerdings gehen dann die anwendungsspezifischen Optis wie Shader-Replacement und Co gleich mit flöten, ebenso wie die Crossfire-Funktionalität. Daher wird mit AI-default gebencht.

Sollte AMD es mal gebacken bekommen, die Optimierungen hinsichtlich BQ und "echten" Optis (CF, Shader-Replacement usw.) zu trennen, dann wird PCGH wie auch CB garantiert so benchen. Aktuell ist dies jedoch der beste Kompromiss - nicht optimal halt, aber besser geht es imo nicht.

cYa
 
Man könnte zwar auch Q vs AI-standard testen, aber irgendwie muss man eben AMD dafür belohnen das der AI Schalter und das AF so ist, wie es ist. ;)

AMD wird nichts an den gekoppelten Optimierungen dank AI ändern. Ist doch so ideal. Niemand beschwert sich, keiner testet den langsamen Modus.
 
Q ist aber imo schlechter als AI-def, zudem liegen bei den GT200 keine 5% zwischen HQ udn Q (oft).

cYa
 
@unyu

und kein schwein spielt mit AI off. somit ist eh wurst.


gruß
 
@Schinzie
Richtig. Den Grund wurde schon gennant. Es ist einfach ideal für AMD: Ein BQ Schalter, den keiner anrühren wird.
Leider gibts keine Alternative zu AI.
(Siehe 8xQ bei Nvidia, wird auch niemand nutzen, aber getestet wirds trotzdem.)

@y33H@
Ja sind nur 5-10%, aber hier wird halt der benachteiligt, der einen voll nutzbaren HQ Modus anbietet. Und diese 5-10% machen viel aus, da muss man sich nur mal einen beliebigen Fred hier durchlesen .....
Zwischen HQ und Default ist der BQ Unterschied auf jeden Fall größer als dein imho Unterschied zwischen Q und Default.
 
Was ich eigentlich wissen wollte ob einer der beiden Hersteller dadurch einen NAchteil hat und seine Karten etwas mehr Leistung bringen müssesn um die gleichen FPS zu erreichen wie die Konkurrenz?
 
Ja klar, hast du doch schon erkannt: AMD hat einen Vorteil dadurch. Die Balken sind im Vergleich zur Konkurrenz länger.
bzw der Kunde hat bei AMD den Nachteil, das er AI-off praktisch nicht nutzen kann.
 
Tja so kann man die Konkurrenz auch besser dastehen lassen
 
Zurück
Oben