Edge-Detect je nach Spiel extremer FPS Einbruch

machiavelli1986

Commander Pro
Registriert
Feb. 2008
Beiträge
2.781
Ich hab folgendes Problem. Im Catalyst Control Center hab ich bei AA von Box auf Edge-Detect gewechselt. AA selber hab ich anwendungsgesteuert.

Jedoch hab ich nun in Grid mit aktiviertem Edge-Detect und 8xmsaa (in grid gewählt) nur noch ca. 35fps. Wenn ich jedoch im CCC Box wähle und in Grid 8xmsaa, dann hab ich ca. 70 - 80 frames.

Bei Call of Duty 5 das selbe. Dort hab ich 4xaa gewählt im Game selber, und im CCC Edge-Detect. damit hab ich noch ca. 30-35 frames. wenn ich jedoch im CCC auf Box wechsle dann hab ich 60-80 frames.

in Far cry 2 zum beispiel hat edge detect keine auswirkung.evtl. auch nur weil ich in far cry 2 nur 2xaa gewählt hab.

ist das normal das edge-detect soviel leistung braucht sobald man 4 oder 8x AA hat?
 
wenn du den hacken bei anwendungseinstellungen verwenden ausmachst siehste auch wieso das so ist.
Bei 4x mit Edge-detect ergibt das 12x aa und bei 8x mit ed 24x aa.
Bei 2x aa ist Ed gar nicht an, erst ab 4x aa
 
Edge Detect wird nicht von den Texture Units bewerkstelligt, sondern von den Shaderprozessoren.

Es ist das momentan beste Verfahren der Geometriekantenglättung bei Consumergrafikkarten.

Die Unterschiede zu MSAA ergeben sich aus der Berechnungsweise. Der Edge Detect Filter braucht weitaus mehr Leistung der Shaderprozessoren und weniger Speicher.

Der Einbruch ist normal, da im Vergleich zu MSAA ungleich mehr Steps gerechnet werden und die Qualität weit höher ist.

Bei DX10 funktionieren die Custom Filter nicht immer, da die Software-Entwickler meist eigene abgestimmte Custom Filter für das AA im Spiel verwenden.
 
dann lass ich die einstellung im catalyst control center der performance zuliebe auf box oder?seh da sowieso keinen unterschied.
 
Zuletzt bearbeitet:
Edge Detect wird nicht von den Texture Units bewerkstelligt, sondern von den Shaderprozessoren.
Auch wenns alt ist, es hilft irgendwie nicht weiter, bin grad auf der Suche nach der Erklärung für AA.
Denn soweit ich weiß besitzen ATis keine Shaderprozessoren ???
 
Du weißt falsch. :D

Sowohl ATi als auch nVidia haben Shaderprozessoren, sie heißen nur jeweils anders und haben eine andere Grundstruktur.

ATi bzw jetzt AMD: Stream-Prozessoren
nVidia: CUDA-Cores

AA steht für Kantenglättung (Anti Aliasing) und sorgt ganz grob gesprochen dafür, dass die bekannten Treppchen weniger werden.
Es gibt je nach Firma und Berechnungsmethode des AA verschiedene Modi.
Die gängigsten sind:

MSAA (MultiSampledAntiAliasing) --> glättet bestimmte Bildinhalte, wie etwa Kanten bei Hauswänden usw.; je nach Einstellung mäßiger bis mittlerer Performanceimpact

AAA (Adaptive AnitAliasing) --> glättet transparente Texturen wie Zäune und ähnlichen Tand, wird zu MSAA zugeschalten und kosten natürlich einiges mehr an Performance

SSAA (OGSSAA,SGSSAA) --> glättet nahezu alles, kostet die meiste Performance

und noch ein haufen Hybridmodi.

Berechnet wird das ganze je nachdem von den Shadernprozessoren und/oder in den ROPs (vereinfacht gesagt die Dinger, die zwischen der GPU und VRAM sitzen; je mehr ROPS man hat, desto eher kann eine Karte mit viel AA besser umgehen, sprich weniger Performance dadurch verlieren).
 
Das mit AA weiß ich auch alles so bereits, nur einer innem anderem Forum hatte sone Frage, und der wusste net genau was AA ist. Dabei ging es z.B. an das Erklären von den Stufen:
2x, 4x, 8x, 12x etc pp...leider habe ich keine fahcgerechte erklärung bisher gefunden und wikipedia redet etwas am thema vorbei wie ich denke.

Aber danke für die Shader Aufdröselung :D:D
 
Zurück
Oben