B
boxleitnerb
Gast
So, damit der Bulldozer-Thread nicht zu sehr missbraucht wird (auch Asche über mein Haupt), mache ich einfach mal einen neuen auf. Offensichtlich besteht bei diesem Thema noch viel Diskussionsbedarf:
Der Begriff einer "realen Auflösung" bzw. eines "praxisnahen Settings" ist in meinen Augen Unsinn im Zusammenhang mit CPU-Benches, die eine Aussage bzgl. der Leistungsfähigkeit eines Prozessors in Spielen möglich machen sollen. Genausogut könnte man in Grafikkartentests das Nichtvorhandensein einer "realen" CPU aka Phenom II 965 oder i7-750 monieren, wo doch immer ein hoch übertakteter i7 eingesetzt wird.
Die 800x600 oder 640x480 sind erstmal nur ein Mittel zum Zweck. Aber sie sind auch "real" bzw. "praxisnah", denn:
Das CPU-Limit in Spielen ist NICHT von der Auflösung abhängig!
Diese These soll hier als zentraler Angelpunkt der Diskussion stehen. Für die Pixelberechnungen ist die Grafikkarte zuständig. Mehr Pixel bedeutet mehr Rechenarbeit für die Grafikkarte. Das heißt natürlich nicht, dass die CPU hier keine Vorarbeit leisten muss, bestimmt nicht. Aber den absoluten Löwenanteil übernimmt die Grafikkarte.
Beispiele (!), die dies belegen oder entkräften sind natürlich gerne willkommen. Was ich hier ausdrücklich NICHT wünsche, ist eine rein theoretische Diskussion. Davon hat niemand was, denn behaupten kann man viel, wenn der Tag lang ist (auch wenn es offensichtlich ist).
Um auf die These zurückzukommen:
Habe ich zwei CPUs, die in einer gewissen Szene mit vielen Kollisionsabfragen, KI-Berechnungen, Physikberechnungen etc. voll an ihre Grenzen stoßen, liegt hier ein CPU-Limit vor - vielleicht kein absolutes (Kommunikation zwischen Grafikkarte und CPU beansprucht ja schließlich auch Zeit) - aber auf jeden Fall, wenn man nur CPU und GPU vergleicht. Die FPS sind konstant.
Auflösung, AA/AF ändern idR nur die Grafiklast und haben in einer CPU-limitierten Szene keinen Einfluss auf die FPS (solange man nicht soviel SSAA einstellt, dass nun wieder die Grafikkarte limitiert). Jedoch gibt es eine kleine Ausnahme: Das Blickfeld (FoV). Wenn es breiter wird bei einer anderen Auflösung, hat auch die CPU mehr zu tun.
Es ist sehr schwierig, reproduzierbar CPU-Limits zu benchen, weil in einem Spiel meist ein permanentes Wechselspiel zwischen CPU-Limits und GPU-Limits herrscht. Auch sollte eine Benchmarkszene natürlich immer möglichst gleich ablaufen - das ist mit Autosave heutzutage oft nicht der Fall. Bei Grafikkarten ist es viel einfacher, mit Auflösung und AA/AF ein GPU-Limit zum Benchen zu erzeugen. Bei CPU-Benchmarks ist es deutlich kniffliger. Hier helfen u.a.:
Lange Rede, kurzer Sinn:
CPU-Benchmarks in "praxisnahen" Auflösungen sind eigentlich sinnlos, denn:
In GPU-limitierten Szenen sind beide CPUs durch die Grafikkarte ausgebremst. Es macht keinen Unterschied, welche CPU man hat.
CPU-limitierte Szenen fließen bei den gängigen Benchmarkmethoden eher selten in das Ergebnis mit ein. Gerade sie sind es aber, für die man eine schnelle CPU benötigt!
Auf Basis eines so herbeigeführten Ergebnisses ist keine Kaufempfehlung möglich. Die Ergebnisse sind geglättet (nur ein Avg Wert, keine Frameverläufe) und verzerrt (fps Differenzen, die im Spiel stellenweise durchaus auftreten, kommen im Bench nicht zur Geltung).
Es wäre sehr hilfreich, wenn auch Volker sich hier mal zu Wort melden würde. Ich finde es wichtig, dass auch die, die die Benches letztendlich durchführen und damit auch eine gewisse Verantwortung gegenüber den Lesern haben, für die Thematik sensibilisiert sind und hinterfragen, ob z.B. ein Benchmark, bei dem so etwas herauskommt, überhaupt sinnvoll ist:

Beispielsweise liegen zwischen CPUs mit ähnlicher IPC (Q6600 und E8600) satte 37.5% Taktunterschied (bezogen auf den 6600), die NULL zur Geltung kommen. Es ist nicht ersichtlich, dass der E8600 den Q6600 in auf zwei Kerne optimierten Spielen deutlich überflügelt.
Ja, es ist ein älteres Beispiel und mit der Einführung der 800x600 Benchmarks und der HD5870 im Testsystem hat sich schon viel zum Positiven geändert. Viele anderen Seiten benchen aber noch so. Und an die, die 800x600 Benchmarks als "realitätsfern" abtun: Ist so ein Ergebnis, wie es in den Diagramm dargestellt wird, nicht erst recht realitätsfern? Denn die Performancecharakteristik beim Spielen gibt dieser Benchmark ganz sicher NICHT wieder!
So, und jetzt bin ich still und ihr dürft losdiskutieren! Und das bitte gesittet und ohne Flames. Danke
Edit:
@Mods:
Wenn dieser Thread produktiv und gesittet verläuft, würde ich dafür plädieren, einen Sticky draus zu machen. Denn dieses Thema ist eigentlich für jeden wichtig, der sich eine CPU kaufen möchte und es wäre doch schade, wenn die Diskussion irgendwann in der Versenkung verschwinden würde.
Schaffe89 schrieb:Wenn ich mir ein System zulege kaufe ich mir eine CPU mit gutem P/L welche für mich in Realer Auflösung genügend FPS in Verbindung mit einer schnellen Grafikkarte bringt.
Man nehme den i5 750 /phenom 2 965BE/955Be, reichen bisher für Gamersettings einwandfrei aus und limitieren nicht die Leistung einer schnellen karte.
Warum dann also einen i7 975XE kaufen, welcher mit nichts bringt, außer in 800x600?
Diese Diskussion wurde übrigens schon tausend mal geführt und muss nicht nochmal angeheizt werden.
Erklärt sich von selbst, wenn man die ganze Diskussion verfolgt.
Der Begriff einer "realen Auflösung" bzw. eines "praxisnahen Settings" ist in meinen Augen Unsinn im Zusammenhang mit CPU-Benches, die eine Aussage bzgl. der Leistungsfähigkeit eines Prozessors in Spielen möglich machen sollen. Genausogut könnte man in Grafikkartentests das Nichtvorhandensein einer "realen" CPU aka Phenom II 965 oder i7-750 monieren, wo doch immer ein hoch übertakteter i7 eingesetzt wird.
Die 800x600 oder 640x480 sind erstmal nur ein Mittel zum Zweck. Aber sie sind auch "real" bzw. "praxisnah", denn:
Das CPU-Limit in Spielen ist NICHT von der Auflösung abhängig!
Diese These soll hier als zentraler Angelpunkt der Diskussion stehen. Für die Pixelberechnungen ist die Grafikkarte zuständig. Mehr Pixel bedeutet mehr Rechenarbeit für die Grafikkarte. Das heißt natürlich nicht, dass die CPU hier keine Vorarbeit leisten muss, bestimmt nicht. Aber den absoluten Löwenanteil übernimmt die Grafikkarte.
Beispiele (!), die dies belegen oder entkräften sind natürlich gerne willkommen. Was ich hier ausdrücklich NICHT wünsche, ist eine rein theoretische Diskussion. Davon hat niemand was, denn behaupten kann man viel, wenn der Tag lang ist (auch wenn es offensichtlich ist).
Um auf die These zurückzukommen:
Habe ich zwei CPUs, die in einer gewissen Szene mit vielen Kollisionsabfragen, KI-Berechnungen, Physikberechnungen etc. voll an ihre Grenzen stoßen, liegt hier ein CPU-Limit vor - vielleicht kein absolutes (Kommunikation zwischen Grafikkarte und CPU beansprucht ja schließlich auch Zeit) - aber auf jeden Fall, wenn man nur CPU und GPU vergleicht. Die FPS sind konstant.
Auflösung, AA/AF ändern idR nur die Grafiklast und haben in einer CPU-limitierten Szene keinen Einfluss auf die FPS (solange man nicht soviel SSAA einstellt, dass nun wieder die Grafikkarte limitiert). Jedoch gibt es eine kleine Ausnahme: Das Blickfeld (FoV). Wenn es breiter wird bei einer anderen Auflösung, hat auch die CPU mehr zu tun.
Es ist sehr schwierig, reproduzierbar CPU-Limits zu benchen, weil in einem Spiel meist ein permanentes Wechselspiel zwischen CPU-Limits und GPU-Limits herrscht. Auch sollte eine Benchmarkszene natürlich immer möglichst gleich ablaufen - das ist mit Autosave heutzutage oft nicht der Fall. Bei Grafikkarten ist es viel einfacher, mit Auflösung und AA/AF ein GPU-Limit zum Benchen zu erzeugen. Bei CPU-Benchmarks ist es deutlich kniffliger. Hier helfen u.a.:
Das Vermeiden von Timedemos, in denen verschiedene Berechnungen (KI) gar nicht durchgeführt werden -> die CPU-Last wäre geringer als im eigentlichen Spiel
- Niedrige Auflösung, um schneller in das CPU-Limit zu kommen
- CPU heruntertakten, um schneller in das CPU-Limit zu kommen
Lange Rede, kurzer Sinn:
CPU-Benchmarks in "praxisnahen" Auflösungen sind eigentlich sinnlos, denn:
In GPU-limitierten Szenen sind beide CPUs durch die Grafikkarte ausgebremst. Es macht keinen Unterschied, welche CPU man hat.
CPU-limitierte Szenen fließen bei den gängigen Benchmarkmethoden eher selten in das Ergebnis mit ein. Gerade sie sind es aber, für die man eine schnelle CPU benötigt!
Auf Basis eines so herbeigeführten Ergebnisses ist keine Kaufempfehlung möglich. Die Ergebnisse sind geglättet (nur ein Avg Wert, keine Frameverläufe) und verzerrt (fps Differenzen, die im Spiel stellenweise durchaus auftreten, kommen im Bench nicht zur Geltung).
Es wäre sehr hilfreich, wenn auch Volker sich hier mal zu Wort melden würde. Ich finde es wichtig, dass auch die, die die Benches letztendlich durchführen und damit auch eine gewisse Verantwortung gegenüber den Lesern haben, für die Thematik sensibilisiert sind und hinterfragen, ob z.B. ein Benchmark, bei dem so etwas herauskommt, überhaupt sinnvoll ist:

Beispielsweise liegen zwischen CPUs mit ähnlicher IPC (Q6600 und E8600) satte 37.5% Taktunterschied (bezogen auf den 6600), die NULL zur Geltung kommen. Es ist nicht ersichtlich, dass der E8600 den Q6600 in auf zwei Kerne optimierten Spielen deutlich überflügelt.
Ja, es ist ein älteres Beispiel und mit der Einführung der 800x600 Benchmarks und der HD5870 im Testsystem hat sich schon viel zum Positiven geändert. Viele anderen Seiten benchen aber noch so. Und an die, die 800x600 Benchmarks als "realitätsfern" abtun: Ist so ein Ergebnis, wie es in den Diagramm dargestellt wird, nicht erst recht realitätsfern? Denn die Performancecharakteristik beim Spielen gibt dieser Benchmark ganz sicher NICHT wieder!
So, und jetzt bin ich still und ihr dürft losdiskutieren! Und das bitte gesittet und ohne Flames. Danke
Edit:
@Mods:
Wenn dieser Thread produktiv und gesittet verläuft, würde ich dafür plädieren, einen Sticky draus zu machen. Denn dieses Thema ist eigentlich für jeden wichtig, der sich eine CPU kaufen möchte und es wäre doch schade, wenn die Diskussion irgendwann in der Versenkung verschwinden würde.
Zuletzt bearbeitet: