okay, hab ich mich halt verlesen.
was mich dann allerdings wieder zu der frage bringt, wie sähe das ganze mit oc aus, wenn ich mit meinem E8400@stock schon mehr fps unter max settings hab...
und ja, man kann eine cpu sinnlos mit daten vollknüppeln und sie in die knie zwingen, indem man 16x AF und 8x MSAA einstellt - über den sinngehalt dieser einstellungen diskutieren wir an anderer stelle bitte, danke.
@firexs: grundsätzlich gebe ich dir recht, aber 20 - 30 fps können für mich den unterschied zwischen flüssig spielbar und "perfekt spielbar" (85/125fps@cod) machen - sowohl optisch als auch vom gameplay her spürbar...
Um hier mal ein konkretes beispiel zu nennen: Company of Heroes würde imo davon profitieren, wenn ich es auf 500x6 anstelle von 450x7 laufen ließe - spätestens im lategame gegen 4 expert-AI auf hochwald, wenn das effektgewitter losgeht...
wenn man die reinen 150MHz taktfrequenz betrachtet, dann ist das oberflächlich.
und es würde wahrscheinlich nichteinmal einen messbaren unterschied bringen, ja.
Edit: der ganze rant hier hätte vermieden werden können, wenn sich eine gewisse person einfach mal ganz klar und deutlich ausgedrückt hätte.
bossbeelze schrieb:
OC bringt weniger fps als/wie reduzierte Details.
Welches Game? Welche Einstellungen?
allerdings ist dieses zitat weit von "klar" oder "deutlich" entfernt, weswegen diese völlig verfehlte grundsatzdiskussion hier anfing.