CPU-Leistung in Spielen und richtiges Benchen

  • Ersteller Ersteller boxleitnerb
  • Erstellt am Erstellt am
B

boxleitnerb

Gast
So, damit der Bulldozer-Thread nicht zu sehr missbraucht wird (auch Asche über mein Haupt), mache ich einfach mal einen neuen auf. Offensichtlich besteht bei diesem Thema noch viel Diskussionsbedarf:

Schaffe89 schrieb:
Wenn ich mir ein System zulege kaufe ich mir eine CPU mit gutem P/L welche für mich in Realer Auflösung genügend FPS in Verbindung mit einer schnellen Grafikkarte bringt.
Man nehme den i5 750 /phenom 2 965BE/955Be, reichen bisher für Gamersettings einwandfrei aus und limitieren nicht die Leistung einer schnellen karte.

Warum dann also einen i7 975XE kaufen, welcher mit nichts bringt, außer in 800x600?
Diese Diskussion wurde übrigens schon tausend mal geführt und muss nicht nochmal angeheizt werden.
Erklärt sich von selbst, wenn man die ganze Diskussion verfolgt.

Der Begriff einer "realen Auflösung" bzw. eines "praxisnahen Settings" ist in meinen Augen Unsinn im Zusammenhang mit CPU-Benches, die eine Aussage bzgl. der Leistungsfähigkeit eines Prozessors in Spielen möglich machen sollen. Genausogut könnte man in Grafikkartentests das Nichtvorhandensein einer "realen" CPU aka Phenom II 965 oder i7-750 monieren, wo doch immer ein hoch übertakteter i7 eingesetzt wird.

Die 800x600 oder 640x480 sind erstmal nur ein Mittel zum Zweck. Aber sie sind auch "real" bzw. "praxisnah", denn:

Das CPU-Limit in Spielen ist NICHT von der Auflösung abhängig!

Diese These soll hier als zentraler Angelpunkt der Diskussion stehen. Für die Pixelberechnungen ist die Grafikkarte zuständig. Mehr Pixel bedeutet mehr Rechenarbeit für die Grafikkarte. Das heißt natürlich nicht, dass die CPU hier keine Vorarbeit leisten muss, bestimmt nicht. Aber den absoluten Löwenanteil übernimmt die Grafikkarte.
Beispiele (!), die dies belegen oder entkräften sind natürlich gerne willkommen. Was ich hier ausdrücklich NICHT wünsche, ist eine rein theoretische Diskussion. Davon hat niemand was, denn behaupten kann man viel, wenn der Tag lang ist (auch wenn es offensichtlich ist).

Um auf die These zurückzukommen:

Habe ich zwei CPUs, die in einer gewissen Szene mit vielen Kollisionsabfragen, KI-Berechnungen, Physikberechnungen etc. voll an ihre Grenzen stoßen, liegt hier ein CPU-Limit vor - vielleicht kein absolutes (Kommunikation zwischen Grafikkarte und CPU beansprucht ja schließlich auch Zeit) - aber auf jeden Fall, wenn man nur CPU und GPU vergleicht. Die FPS sind konstant.

Auflösung, AA/AF ändern idR nur die Grafiklast und haben in einer CPU-limitierten Szene keinen Einfluss auf die FPS (solange man nicht soviel SSAA einstellt, dass nun wieder die Grafikkarte limitiert). Jedoch gibt es eine kleine Ausnahme: Das Blickfeld (FoV). Wenn es breiter wird bei einer anderen Auflösung, hat auch die CPU mehr zu tun.

Es ist sehr schwierig, reproduzierbar CPU-Limits zu benchen, weil in einem Spiel meist ein permanentes Wechselspiel zwischen CPU-Limits und GPU-Limits herrscht. Auch sollte eine Benchmarkszene natürlich immer möglichst gleich ablaufen - das ist mit Autosave heutzutage oft nicht der Fall. Bei Grafikkarten ist es viel einfacher, mit Auflösung und AA/AF ein GPU-Limit zum Benchen zu erzeugen. Bei CPU-Benchmarks ist es deutlich kniffliger. Hier helfen u.a.:


  • Das Vermeiden von Timedemos, in denen verschiedene Berechnungen (KI) gar nicht durchgeführt werden -> die CPU-Last wäre geringer als im eigentlichen Spiel

  • Niedrige Auflösung, um schneller in das CPU-Limit zu kommen

  • CPU heruntertakten, um schneller in das CPU-Limit zu kommen

Lange Rede, kurzer Sinn:
CPU-Benchmarks in "praxisnahen" Auflösungen sind eigentlich sinnlos, denn:

In GPU-limitierten Szenen sind beide CPUs durch die Grafikkarte ausgebremst. Es macht keinen Unterschied, welche CPU man hat.
CPU-limitierte Szenen fließen bei den gängigen Benchmarkmethoden eher selten in das Ergebnis mit ein. Gerade sie sind es aber, für die man eine schnelle CPU benötigt!

Auf Basis eines so herbeigeführten Ergebnisses ist keine Kaufempfehlung möglich. Die Ergebnisse sind geglättet (nur ein Avg Wert, keine Frameverläufe) und verzerrt (fps Differenzen, die im Spiel stellenweise durchaus auftreten, kommen im Bench nicht zur Geltung).

Es wäre sehr hilfreich, wenn auch Volker sich hier mal zu Wort melden würde. Ich finde es wichtig, dass auch die, die die Benches letztendlich durchführen und damit auch eine gewisse Verantwortung gegenüber den Lesern haben, für die Thematik sensibilisiert sind und hinterfragen, ob z.B. ein Benchmark, bei dem so etwas herauskommt, überhaupt sinnvoll ist:



Beispielsweise liegen zwischen CPUs mit ähnlicher IPC (Q6600 und E8600) satte 37.5% Taktunterschied (bezogen auf den 6600), die NULL zur Geltung kommen. Es ist nicht ersichtlich, dass der E8600 den Q6600 in auf zwei Kerne optimierten Spielen deutlich überflügelt.

Ja, es ist ein älteres Beispiel und mit der Einführung der 800x600 Benchmarks und der HD5870 im Testsystem hat sich schon viel zum Positiven geändert. Viele anderen Seiten benchen aber noch so. Und an die, die 800x600 Benchmarks als "realitätsfern" abtun: Ist so ein Ergebnis, wie es in den Diagramm dargestellt wird, nicht erst recht realitätsfern? Denn die Performancecharakteristik beim Spielen gibt dieser Benchmark ganz sicher NICHT wieder!

So, und jetzt bin ich still und ihr dürft losdiskutieren! Und das bitte gesittet und ohne Flames. Danke :)

Edit:
@Mods:
Wenn dieser Thread produktiv und gesittet verläuft, würde ich dafür plädieren, einen Sticky draus zu machen. Denn dieses Thema ist eigentlich für jeden wichtig, der sich eine CPU kaufen möchte und es wäre doch schade, wenn die Diskussion irgendwann in der Versenkung verschwinden würde.
 
Zuletzt bearbeitet:
Wenns nur darum geht, die jeweilige Hardware nach reiner Rohrechenleistung zu vergleichen, dann sollte man doch mal spezielle Benchmarks entwickeln die soetwas testen. Bei Festplatten gibt es solche ja schon. Nur weiss man bei Festplatten auch genau was man testen muss.
Bei Grafikkarten oder CPUs spielen ja immer auch noch ganz andere Sachen eine Rolle. Zum Beispiel gibt es bei Grafikkarten schon unterschiede zwischen einer DirectX 9 Karte und einer DirectX 10 Karte. Und ich meine jetzt nicht die Taktraten sondern die speziellen Eigenschaften. Genauso bei den CPUs. Denken wir nur mal an die vielen SSE-Modi.
 
Es geht mir in diesem Thread um die Spieleleistung. Ich schrieb ja schon, dass hier noch andere Faktoren eine Rolle spielen. Deshalb gilt es ja auch, diese Faktoren so weit wie möglich zu eliminieren bei einem Benchmark, um an die Unterschiede zwischen den Prozessoren zu kommen.

Ein interessanter Punkt mit DX9 und DX10! Wenn aber das ganze Testfeld in den entsprechenden Spielen (wie heute eigentlich zu erwarten ist) mit DX10 läuft, ist die Vergleichbarkeit wieder gegeben. Zwischen DX9 und DX10 Spielen darf man dann natürlich nicht vergleichen, sondern nur innerhalb eines Spiels. Alles andere macht sowieso keinen Sinn.
 
MSchelle schrieb:
Wenns nur darum geht, die jeweilige Hardware nach reiner Rohrechenleistung zu vergleichen, dann sollte man doch mal spezielle Benchmarks entwickeln die soetwas testen.

Die gibt es durchaus schon. Aber die sind vom Praxiseinsatz eben weit entfernt. Denn für Spieler ist eben wichtig zu sehen, wie sich eine CPU in einem bestimmten Spiel verhält und ob diese ausreicht.

Es ist wenig sinnvoll die CPUs anhand von synthetischen Benchmarks zu vergleichen. Man sieht hier zwar sehr gut die Unterschiede der Prozessoren, aber man kann eben keine Aussage darüber treffen, ob sie auch jemals durch ein Spiel an ihre Leistungsgrenze stoßen. Gerade das ist aber für eine Kosten-/Nutzen-Betrachtung von sehr hoher Bedeutung, da die CPUs an der Performancespitze teils exorbitante Preissprünge nach oben machen.

Mir sind aktuell wenige Spiele bekannt, die durch aktuelle CPUs (Low-Budget-CPUs mal ausgenommen, die haben in einem Gaming-Rechner eigentlich nichts verloren) gebremst werden. Bei den meisten spielt nach wie vor die GPU eine übergeordnete Rolle.

Anbei noch ein kleines Lob an den TE. Sehr schön formulierter Post, der endlich mal versucht diesem Mythos des CPU-Limits zu entgegnen. Viele verbreiten hier tatsächlich häufig nur Dinge, die sie mal irgendwo aufgeschnappt haben.
 
boxleitnerb schrieb:
Es geht mir in diesem Thread um die Spieleleistung. Ich schrieb ja schon, dass hier noch andere Faktoren eine Rolle spielen. Deshalb gilt es ja auch, diese Faktoren so weit wie möglich zu eliminieren bei einem Benchmark, um an die Unterschiede zwischen den Prozessoren zu kommen.

Ein interessanter Punkt mit DX9 und DX10! Wenn aber das ganze Testfeld in den entsprechenden Spielen (wie heute eigentlich zu erwarten ist) mit DX10 läuft, ist die Vergleichbarkeit wieder gegeben. Zwischen DX9 und DX10 Spielen darf man dann natürlich nicht vergleichen, sondern nur innerhalb eines Spiels. Alles andere macht sowieso keinen Sinn.

Auf der einen Seite schreibst du, dass es dir um die Spieleleistung geht und auf der anderen Seite möchtest du, dass man die Bedingungen auf CPU-Benchmarking umstellt.
Wie passt das zusammen?

Vielleicht liegt hier aber auch einfach nur ein Verständigungsproblem vor.
Mit praxisnahen Tests sind praxisnahe Spieleeinstellungen gemeint.

Fakt ist:
Ein Computer ist kein Einzelteil, sondern ein Zusammenspiel verschiedener Komponenten.
Möchte ich nun herausfinden, wie dieses Zusammenspiel bei einem Spiel bei "üblichen" Auflösungen wie 1280x1024 oder 1920x1200 abschneidet, muss ich auch das als Ganzes betrachten. Wenn dabei die Unterschiede der verschiedenen CPUs nicht zum Tragen kommen, dann kann mir das Spieler erstmal egal sein. Denn das ist nicht der Sinn dieses Tests.

Ein Kompromiss wäre die Einführung von min. und max. FPS bei Spielen und/oder die Aktivierung möglicher CPU-basierter Zusatzberechnungen (Physik etc.).
Alles andere halte ich für überflüssig. Denn Benchmarks zur reinen CPU-Leistung werden ja schon durch anderen Programme zur Genüge abgedeckt.
 
Kann ich persönlich nur unterschreiben. Wer sich für viel Geld ne CPU um zu zocken hat Grundsätzlich was nicht verstanden... Die Graka machts und ist in den meisten Fällen der Flaschenhals.
 
Jeppo schrieb:
Auf der einen Seite schreibst du, dass es dir um die Spieleleistung geht und auf der anderen Seite möchtest du, dass man die Bedingungen auf CPU-Benchmarking umstellt.
Wie passt das zusammen?

Gegenfrage: Warum bencht man Grafikkarten mit viel AA/AF und hohen Auflösungen?
Das ist genau das Äquivalent zu der Anforderung an CPU-Benchmarks. In solchen Benches soll die CPU gefordert werden. Das wird sie nicht, wenn sie meist auf die Grafikkarte warten muss.

Jeppo schrieb:
Vielleicht liegt hier aber auch einfach nur ein Verständigungsproblem vor.
Mit praxisnahen Tests sind praxisnahe Spieleeinstellungen gemeint.

Das ist ja der Kernpunkt:
Es mag praxisnah sein, mit viel AA/AF zu benchen. Aber Unterschiede in CPU-limitierten Stellen wirst du so nicht zu sehen bekommen ohne Frameverlauf. Von min, avg und max Werten halte ich wenig, da auch hier viele wichtige Informationen verloren gehen.

Auch ein wichtiger Punkt: "Zukunftssicherheit". Kannst es auch Reserve nennen. IdR wechselt man eine CPU nicht so oft wie eine Grafikkarte. Reserve für zukünftige fordernde Spiele zu haben, ist auch wichtig. Damit meine ich ausdrücklich nicht, dass man über seinem Budget kaufen soll, nur um morgen mehr Leistung zu haben! Aber wenn ich heute zwei CPUs in meinem Budget (und der Einfachheit halber zum gleichen Preis) vergleiche und durch entsprechende Benchmarks erkennen kann, dass die eine mehr leisten kann, als die andere - welche nehme ich dann wohl?

Jeppo schrieb:
Fakt ist:
Ein Computer ist kein Einzelteil, sondern ein Zusammenspiel verschiedener Komponenten.
Möchte ich nun herausfinden, wie dieses Zusammenspiel bei einem Spiel bei "üblichen" Auflösungen wie 1280x1024 oder 1920x1200 abschneidet, muss ich auch das als Ganzes betrachten. Wenn dabei die Unterschiede der verschiedenen CPUs nicht zum Tragen kommen, dann kann mir das Spieler erstmal egal sein. Denn das ist nicht der Sinn dieses Tests.

Die Unterschiede kommen ja zum Tragen! Nur sieht man das in den Benchmarks oft nicht - das ist ja das Blöde. Wenn im Benchmark eine hauptsächlich GPU-limitierte Szene getestet wird, gibt einem das keine Aussage darüber, wie sich das System verhält, wenn die Grafikkarte schnell genug ist, die CPU aber bremst. Und das ist mitnichten egal.

Deswegen muss man beides benchen:
Hohe Auflösungen, AA/AF um zu sehen, ob die Grafikkarte mit den Anforderungen zurechtkommt.
Niedrige Auflösungen (oder besser noch explizit CPU-limitierte Szenen), um zu sehen, ob die CPU mit den Anforderungen zurecht kommt.

Niedrige Auflösungen sind nicht das Gelbe vom Ei, das ist klar. Wie gesagt, es gibt nur wenige Möglichkeiten, ein CPU-Limit zu erzeugen und das ist eine davon.

Wichtig:
Es ist ein Hilfsmittel, das dem Tester das Leben einfacher macht, wenn er nicht das halbe Spiel nach CPU-limitierten Szenen durchsuchen will. Die Formulierung soll nicht implizieren, dass solche Szenen selten wären - aber es ist schwierig, sie reproduzierbar zu finden und festzuhalten und vor allem mit großem Aufwand verbunden. Deshalb der Umweg über die niedrige Auflösung oder das Absenken des Takts.

Grob (!) kann man dann sagen: Wenn CPU A unter diesen Bedingungen x% mehr leistet als CPU B, tut sie das auch im CPU-Limit in HD-Auflösung.

Hilbertraum schrieb:
Kann ich persönlich nur unterschreiben. Wer sich für viel Geld ne CPU um zu zocken hat Grundsätzlich was nicht verstanden... Die Graka machts und ist in den meisten Fällen der Flaschenhals.

Pauschalaussagen sind absolut fehl am Platz. Die Grafikkarte kann man viel leichter entlasten, indem man an AA oder der Auflösung dreht. Wenn die CPU in bestimmten Szenen zu langsam ist, hat man deutlich weniger Freiheitsgrade.
"Viel" ist auch relativ. Wie jeder persönlich seine Prioritäten setzt, ist einem natürlich selbst überlassen. Aber die objektive Faktenbasis sollte da und bekannt sein, um diese Entscheidung treffen zu können. z.B. anhand GPU-limitierter Benchmarks zu behaupten, ein Phenom 955 wäre in Spielen genausoschnell wie ein i5-750 ist falsch.
Ob er schnell genug für einen selbst ist, ist eine völlig andere Fragestellung. Wenn es um einen rein objektiven Leistungsvergleich ohne persönliche Ansprüche und Präferenzen geht, darf die Bedeutung der CPU nicht einfach heruntergespielt werden.
 
Zuletzt bearbeitet:
CPU übernimmt Polygonenberechnung, KI, früher auch einfache Physik (evtl. immer noch).

Grafikkarte bearbeitet das Bild selbst (Pixel), Texturen, Effekte (Shader).

Wenn die CPU durch OS, Hintergrundprogramme, OnBoard Sound und Polygonenenberechnung zu Stark schwitzt - schafft sie einfach nicht die nötigen Daten, die berechnet werden müssen an die Graka schnell genug zu geben.
Deshalb bremst halt die CPU die Graka in dem Fall. (IMHO)

Die CPU könnte auch bei manchen Spielen schwächer sein, die Probleme sind aber im OS und immer mehr werdende Polygone. Tesselation sollte eigentlich auch weiterhin die CPU entlasten. Bislang ist es aber nicht der Fall. (IMHO)
 
Zuletzt bearbeitet:
boxleitnerb
Du hast dich ordentlich bemüht, die Sache zu erklären aber Kaum einer wird sich von seiner Meinung abbringen lassen.
Kaum einer kann verstehen, das 99,99% aller Tests im Netz Praxisfern sind.

In CPU Tests will man CPU Leistung erfahren.
In Spieletests will man Spieleperformance erfahren.
In Grafikkartentests will man Grafikkartenperformance erfahren, dies verstehen Viele zumindest ansatzweise, umso erstaunlicher das obiges nichtmal im Ansatz verstanden wird.
 
Jeppo schrieb:
Ein Kompromiss wäre die Einführung von min. und max. FPS bei Spielen und/oder die Aktivierung möglicher CPU-basierter Zusatzberechnungen (Physik etc.).
Alles andere halte ich für überflüssig. Denn Benchmarks zur reinen CPU-Leistung werden ja schon durch anderen Programme zur Genüge abgedeckt.

Sofern möglich sollten nur noch Min Frames und Durchschnitt Frames gemessen werden, - wo dann ausschließlich die Min Frames in das Rating mit einfließen.
Dies wäre ein Kompromiss.

Alternativ kann man es so lassen wie es ist, damit jeder sehen kann dass ein x3 um 60€ eine HD5870 bedienen kann, - im Rating hat das allerdings nichts zu suchen.


Außerdem wäre die Pro Kern / Takt Leistung noch interessant die wie bereits im Thread genannt auf 2500mhz und einem aktiven Kern ohne Turbo etc stattfinden sollte, bei gleicher Peripherie.

Den CPU Tests in jetziger Form mangelt es an Aussagekraft, vor allem auch dadurch, dass gezielt auf Multicore Benchmarks gesetzt wird. Das ist in sofern gut dass man die Gesamtleistung der CPU sieht, und sollte auch so beigehalten werden, aber beim Öffnen von Programmen, Booten, Surfen etc kommen sicher nicht immer zig Threads zum Einsatz. Diese durchaus praxisnahen Einsätze wo ich die CPU Leistung spüre fehlen.

Ein Bootup Test mit Windows 7 auf SSD wäre auch interessant. Vielleicht ist AMD hier haushoch überlegen und bootet in der halben Zeit ;)
 
Zuletzt bearbeitet:
The_1st_Knight schrieb:
Denn für Spieler ist eben wichtig zu sehen, wie sich eine CPU in einem bestimmten Spiel verhält und ob diese ausreicht.
Und das siehst du nicht, wenn die Grafikkarte die CPUs bremst. Du siehst nur, welche CPU nicht ins GPU-Limit rennt. Andere Grafikkarte oder Settings und die komplette Aussage ist für den Ar***. Daher in niedrigen Auflösungen CPUs benchen, so sieht man, wie flott die CPUs wirklich sind.

Ich würde mal gerne das Geschrei hören, wenn Grafikkarten nicht mehr mit einem fett übertakteten Core i7, sondern einem C2D E6600 gemacht würden. CPU-limitierte Titel (wie GTA4) würde eine HD5970 auf einmal auf dem Level einer HD5750 sehen :lol:
 
@Krautmaster:
Nun, das ist hier aber alles Fehl am Platz, denn hier geht es um Spieleleistung der CPUs.
Min und Avg reichen nicht. Zu wenig Information, um eine bis zu 30-sekündige Benchszene zu charakterisieren.
 
boxleitnerb schrieb:
Gegenfrage: Warum bencht man Grafikkarten mit viel AA/AF und hohen Auflösungen?
Das ist genau das Äquivalent zu der Anforderung an CPU-Benchmarks. In solchen Benches soll die CPU gefordert werden. Das wird sie nicht, wenn sie meist auf die Grafikkarte warten muss.

Weil AA/AF in Spielen von den meisten Spielern mit ordentlichen Grafikkarten auch genutzt wird. Die Auflösung steigt ebenfalls immer weiter an.
Es handelt sich hier also durchaus um repräsentative Bedingungen.
Sollte es so sein, dass in diesen Szenarien, an bestimmten Stellen des Spiels auch die CPU-Leistung einen Einfluss auf die Framezahl hat, dann sollte dies natürlich auch berücksichtigt werden.
Diesen Beweis bitte ich jedoch erstmal zu erbringen. Bisher hört man lediglich immer nur von Forderungen, ohne jedoch auch nur eine Szene als Beispiel zu liefern, wo genau dieser Einfluss sichtbar wird.


boxleitnerb schrieb:
Das ist ja der Kernpunkt:
Es mag praxisnah sein, mit viel AA/AF zu benchen. Aber Unterschiede in CPU-limitierten Stellen wirst du so nicht zu sehen bekommen ohne Frameverlauf. Von min, avg und max Werten halte ich wenig, da auch hier viele wichtige Informationen verloren gehen.

Wie gesagt:
Bitte benche eine x-beliebige Stelle oder einen Verlauf in einem Spiel mit einer min. Auflösung von 1280x1024 und 4AA/8AF in denen die CPU-limitiert wird und sich dadurch Vorteile für bestimmte CPUs ergeben.[/QUOTE]


boxleitnerb schrieb:
Auch ein wichtiger Punkt: "Zukunftssicherheit". Kannst es auch Reserve nennen. IdR wechselt man eine CPU nicht so oft wie eine Grafikkarte. Reserve für zukünftige fordernde Spiele zu haben, ist auch wichtig. Damit meine ich ausdrücklich nicht, dass man über seinem Budget kaufen soll, nur um morgen mehr Leistung zu haben! Aber wenn ich heute zwei CPUs in meinem Budget (und der Einfachheit halber zum gleichen Preis) vergleiche und durch entsprechende Benchmarks erkennen kann, dass die eine mehr leisten kann, als die andere - welche nehme ich dann wohl?

Auch hier:
Bitte den Gegenbeweis erbringen.
Wir nehmen einen Intel Core 2 Quad Q9400 und einen i7-920. Beide takten mit 2.67GHz.
Wo sind die Zahlen, die einen Unterschied in 1280x1024 4AA/8AF unter deinen Testbedingungen erkennen lassen?
Sich irgendwas selber durch 640x480/800x600 ohne AA/AF abzuleiten ist mir persönlich zu einfach. Die Leute wollen Zahlen sehen.


boxleitnerb schrieb:
Die Unterschiede kommen ja zum Tragen! Nur sieht man das in den Benchmarks oft nicht - das ist ja das Blöde. Wenn im Benchmark eine hauptsächlich GPU-limitierte Szene getestet wird, gibt einem das keine Aussage darüber, wie sich das System verhält, wenn die Grafikkarte schnell genug ist, die CPU aber bremst. Und das ist mitnichten egal.

Wenn dem so ist, gebe ich dir wie gesagt absolut Recht. Testergebnisse bitte.


boxleitnerb schrieb:
Deswegen muss man beides benchen:
Hohe Auflösungen, AA/AF um zu sehen, ob die Grafikkarte mit den Anforderungen zurechtkommt.
Niedrige Auflösungen (oder besser noch explizit CPU-limitierte Szenen), um zu sehen, ob die CPU mit den Anforderungen zurecht kommt.

Falsch. Man bencht das Gespann CPU und Grafikkarte und schaut, ob das Spiel unter repräsentativen Bedingungen damit zu Recht kommt. Sollten sich hier irgendwo Unterschiede ausmachen lassen, die auf GPU oder CPU zurückführbar sind, sind diese aufzuzeigen. Man kann nicht etwas trennen und messen, was letzendlich zusammenarbeiten muss und daraus etwas ableiten.
In Grafikkartenmessungen braucht man immer die CPU. In CPU-Messungen braucht man aber nicht immer die Grafikkarte.


boxleitnerb schrieb:
Niedrige Auflösungen sind nicht das Gelbe vom Ei, das ist klar. Wie gesagt, es gibt nur wenige Möglichkeiten, ein CPU-Limit zu erzeugen und das ist eine davon.

Ich wiederhole:
Sollten die Ergebnisse aus diesem Szenario auf andere Szenarien auch zutreffen, dann bitte. Ich bitte um Zahlen.
Aber ein CPU-Limit durch ein Szenario zu erzeugen, welches keine Anwendung findet, und daraus Vorhersagen für andere Szenarien zu treffen ist alles andere als die beste Art etwas beweisen zu wollen. Das sind dann nur Spekulationen. Du ahnst sicherlich was jetzt kommt: Zahlen aller Szenarien bitte.

boxleitnerb schrieb:
Wichtig:
Es ist ein Hilfsmittel, das dem Tester das Leben einfacher macht, wenn er nicht das halbe Spiel nach CPU-limitierten Szenen durchsuchen will. Die Formulierung soll nicht implizieren, dass solche Szenen selten wären - aber es ist schwierig, sie reproduzierbar zu finden und festzuhalten und vor allem mit großem Aufwand verbunden. Deshalb der Umweg über die niedrige Auflösung oder das Absenken des Takts.

Sorry, aber da werden wir uns wahrscheinlich nicht einig. Ich halte diesen Umweg weiterhin für nicht in Ordnung. Dann muss man sich halt den Aufwand machen und nach CPU-limitierenden Szenen suchen, die auch in repräsentativen Einstellungen zu sehen sind.
Warum gibt es diese Tests nicht? Dafür braucht man keine Hardwareseite, dass könnten die User auch zusammen stemmen.
Man muss nur aufpassen, dass man beim Scheitern des Beweises nicht irgendwann in ein Testen verfällt, was nur noch dazu dient seine Aussagen irgendwie zu beweisen und nicht mehr Wahrheitsfindung.


boxleitnerb schrieb:
Grob (!) kann man dann sagen: Wenn CPU A unter diesen Bedingungen x% mehr leistet als CPU B, tut sie das auch im CPU-Limit in HD-Auflösung.

Eine Aussage ohne Beweis. Leider nichts wert.


boxleitnerb schrieb:
Pauschalaussagen sind absolut fehl am Platz. Die Grafikkarte kann man viel leichter entlasten, indem man an AA oder der Auflösung dreht. Wenn die CPU in bestimmten Szenen zu langsam ist, hat man deutlich weniger Freiheitsgrade.
"Viel" ist auch relativ. Wie jeder persönlich seine Prioritäten setzt, ist einem natürlich selbst überlassen. Aber die objektive Faktenbasis sollte da und bekannt sein, um diese Entscheidung treffen zu können. z.B. anhand GPU-limitierter Benchmarks zu behaupten, ein Phenom 955 wäre in Spielen genausoschnell wie ein i5-750 ist falsch.
Ob er schnell genug für einen selbst ist, ist eine völlig andere Fragestellung. Wenn es um einen rein objektiven Leistungsvergleich ohne persönliche Ansprüche und Präferenzen geht, darf die Bedeutung der CPU nicht einfach heruntergespielt werden.

Ja, aber du machst doch nicht anderes. Du behauptest, dass es CPU-Limits auch unter repräsentativen Bedingungen gibt. Einen Beweis bringst du aber nicht.
 
@Jeppo:

Ich hab einige Titel, die oft CPU-limitiert sind, da. Ich kann übers Wochenende mal benchen (habe einen E6600@3GHz) aber leider nur eine 8800GTX. Mein Monitor packt nur 1280x1024, aber ich kann mit Downsampling auch bis 2560x2048 hochgehen.

Damit es nicht zuviel Aufwand ist, werde ich nur drei Titel benchen (mit Frameverlauf) und mich auf solche beschränken, in denen man frei speichern kann und die Reproduzierbarkeit so gut es geht gegeben ist. Muss erstmal schauen, was ich da habe.

Das soll aber nicht heißen, dass ihr nicht auch mitbenchen könnt! Ich mache hier garantiert nicht alles alleine ;)
Aber bitte mit Frameverlauf, die Szene nicht zu lang wegen Reproduzierbarkeit.
 
Jeppo schrieb:
Falsch. Man bencht das Gespann CPU und Grafikkarte und schaut, ob das Spiel unter repräsentativen Bedingungen damit zu Recht kommt. Sollten sich hier irgendwo Unterschiede ausmachen lassen, die auf GPU oder CPU zurückführbar sind, sind diese aufzuzeigen. Man kann nicht etwas trennen und messen, was letzendlich zusammenarbeiten muss und daraus etwas ableiten.
In Grafikkartenmessungen braucht man immer die CPU. In CPU-Messungen braucht man aber nicht immer die Grafikkarte.
Das ist ein Spieletest.
Vollkommen in Ordnung, wenn es als Spieletest gekennzeichnet ist.

Wenn sowas in CPU Tests versteckt wird kann man sich die Arbeit gleich sparen, anstatt sie hinterher ins Klo zu spülen.
 
Jeppo schrieb:
Dann muss man sich halt den Aufwand machen und nach CPU-limitierenden Szenen suchen, die auch in repräsentativen Einstellungen zu sehen sind.
So etwas ist extrem aufwendig und idR nicht reproduzierbar zu benchen.
Jeppo schrieb:
Du behauptest, dass es CPU-Limits auch unter repräsentativen Bedingungen gibt. Einen Beweis bringst du aber nicht.
Was sind "repräsentative Bedingungen"? So etwas gibt es nicht, da jeder individuelle Fps-Bedürfnisse und Hardware und Spiele nutzt.
 
@Jeppo: Das Problem ist, dass die Beweise die du forderst sehr arbeitsaufwendig sind. Dafür müsste man ein in Frage kommendes Spiel Schritt für Schritt analysieren und in jeder Szene untersuchen ob die CPU oder die Grafikkarte limitiert. Noch dazu eignen sich Timedemos nicht dafür, da hier große Teile der CPU-Last verschwinden, man muss also "richtig" spielen und dann kann schon ein leicht anderer Ablauf das Ergebnis verändern.

Andererseits ist es mir völlig unverständlich wie man die völlig logische Vorgehensweise das jeweils uninteressante Limit künstlich zu entfernen anzweifeln kann. Vereinfacht gesagt können Szenen in einem Spiel entweder von der Grafikleistung oder von der CPU-Leistung limitiert werden.
Möchte man nun einen CPU-Vergleichstest durchführen ist die daraus folgende Konsequenz, dass man das Grafiklimit möglichst zu entfernen versucht, also den Test in möglichst niedriger Auflösung ohne AA/AF durchführt. Daraus kann man dann schließen zu welcher Leistung die CPU in der gebenchten Szene in der Lage wäre.

In der normal genutzten Auflösung und höheren AA/AF Einstellungen wird die gleiche Szene dann eventuell Grafiklimitiert und die Unterschiede zwischen den CPUs werden egalisiert. Spätestens dann wenn jede der getesteten CPUs in der Lage ist mehr Leistung zu bringen als die Grafikkarte in der gleichen Szene bringen kann ist jegliche Aussagekraft verschwunden. Dies kann man schön am von boxleitnerb geposteten Grid Bild sehen. Die gebenchte Szene war in den gewählten Einstellungen so massiv Grafiklimitiert, dass man anhand dieser absolut keine Infos über die Leistung der CPUs erhalten hat. Und ein solcher Benchmark ist dann für einen CPU-Test völlig irrelevant.
 
Das ist richtig, was iceman sagt. Besonders die Interaktion mit der KI ist immer anders - trotz freiem Speichern.
Wie man z.B. bei GTA4 eine reproduzierbarte Szene finden soll, das muss mir erstmal einer erklären. Wenn man nur irgendwo in der Pampa rumfährt oder rumläuft, limitiert meist die GPU. Aber wenn andere dynamische Objekte dazukommen, sieht es wieder anders aus.

Ich versuch trotzdem mal, was auf die Beine zu stellen, aber praktisch ist es kaum möglich. Daher sind diese Umwege ja von Nöten.
 
Man bencht CPU´s wie oben schon gesagt ohne Grafikkarten limit um die CPU Leistung annähernd bestimmen zu können, bzw um Cpu´s untereinander zu vergleichen.
Besser mit Anwwendungen um die Cpu´s untereinander zu vergleichen, je nach gewünschtem Ergebnis.

Das hat aber nichts damit zu tun, wie ich mir ein System Dimensioniere und da sind die Benches in realen Settings sehr informativ, da ich hier sehe, ob die CPU genug Leistung liefert damit ich solide Spielen kann und mir keine teure High End CPU kaufen muss, wenn meine Grafikkarte (in den allermeisten Spielen meine CPU ausbremst).
Das ist der Unterschied, den hoffe ich jeder versteht.

Hast du vielleicht etwas missverstanden, da hier der Unterschied klar besteht und ich in der Diskussion auch ganz klar gesagt habe, dass man für CPU Vergleiche untereinander rbesonders forndernde Szenen nehmen soll, damit die FPS unter 800x600 nicht in die Wolken gehen, weil bestimmte Leute der Meinung sind, dass das nicht erstrebenswert ist, eben dass hier andere Faktoren noch mit reinspielen.
Aber trotzdem guter Thread , wo auch Mühe dahinter steckt.

Unyu schrieb:
Das ist ein Spieletest.
Vollkommen in Ordnung, wenn es als Spieletest gekennzeichnet ist.

Wenn sowas in CPU Tests versteckt wird kann man sich die Arbeit gleich sparen, anstatt sie hinterher ins Klo zu spülen.

Völlig korrekt, das ist ein Spieletest und kein Test der Cpu´s untereinander vergleicht, welchen ich aber brauche um zu sehen, welche CPU nötig ist, damit ich vernünftig spielen kann. ( bitte keine Realitätsfernen Beispiele dazu bringen, wie" Ja wenn ich nen Atom habe und die Qualitätsenstellen extrem aufdrehe limitiert der auch nicht", das ist Bockmist.
Deswegen muss in jedem CPU Test auch ein Realer Spieletest mit den dafür üblichen Auflösungen dabei sein.

Man muss schon vorher wissen was man nun testen will.
Dazu hier:
boxleitnerb schrieb:
Ja, es ist ein älteres Beispiel und mit der Einführung der 800x600 Benchmarks und der HD5870 im Testsystem hat sich schon viel zum Positiven geändert. Viele anderen Seiten benchen aber noch so. Und an die, die 800x600 Benchmarks als "realitätsfern" abtun: Ist so ein Ergebnis, wie es in den Diagramm dargestellt wird, nicht erst recht realitätsfern? Denn die Performancecharakteristik beim Spielen gibt dieser Benchmark ganz sicher NICHT wieder!

Viele Seiten benchen so, weil sie es für richtig halten so zu benchen und weil dies eben die relität ist, dass der CPU (außer in verschiedenden Einzelfällen, welche natürlich auch gebencht werden sollen, siehe Anno/Arma2/GTA4) die Grafikkarte limitiert und somit ausreicht. (Was keine langsamen 2 Kerner etc.. mehr betrifft, auch langsam getaktete Quads nicht mehr mehr betrifft, weil CB mit einer HD5870 sinnvoll geupdatet hatm, die nicht aktuelle 9800gtx+ gab da schon Anlass zur Kritik, da maln hier eher weniger abschätzen konnte, wie sichs mit einer stärkeren Karte verhält.

Warum sollten die Benches realitätsfern sein? Es kommt doch ganz darauf an was man nun testen/sehen will.
Und die 800x600 Benches sind realitätsfern, weil so ein Zustand nie erreicht wird, da ich nie ohen Grafikkarte spiele, sie zeigen lediglich die Leistung ohen GPU limit auf. Welche man dann eventuell später mit eine viel Stärkeren Grafikkarte dann auch in realitätsnahen Settings erreichen kann.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Man bencht CPU´s wie oben schon gesagt ohne Grafikkarten limit um die CPU Leistung annähernd bestimmen zu können, bzw um Cpu´s untereinander zu vergleichen.
Besser mit Anwwendungen um die Cpu´s untereinander zu vergleichen, je nach gewünschtem Ergebnis.

Das hat aber nichts damit zu tun, wie ich mir ein System Dimensioniere und da sind die Benches in realen Settings sehr informativ, da ich hier sehe, ob die CPU genug Leistung liefert damit ich solide Spielen kann und mir keine teure High End CPU kaufen muss, wenn meine Grafikkarte (in den allermeisten Spielen meine CPU ausbremst).
Das ist der Unterschied, den hoffe ich jeder versteht.

Hast du vielleicht etwas missverstanden.
Aber trotzdem guter Thread , wo auch Mühe dhinter steckt.

Genau das siehst du eben nicht zwingend.
Beispiel:

Der Tester bencht eine eher grafiklimitierte Szene, sagen wir mit 1680x1050 +AA/AF, die fps schwanken zwischen 40 und 60 fps. Jetzt kaufst du dir aufgrund dessen ein System und das Spiel und merkst, z.B. in Gefechten/Autorennen etc., dass die fps bis 18 runtergehen. Wie genau hat dir jetzt der Benchmark bei der Dimensionierung geholfen? Eine andere CPU hätte die Einbrüche vielleicht bis 23 oder 24 fps abgefedert. In diesem Bereich ein großer Unterschied.
Aber im Bench waren die fps im Mittel alle bei z.B. 50 - kein Unterschied, weil GPU-limitiert. Das ist nur ein hypothetisches Beispiel, soll aber klar machen, dass es so einfach nicht sein muss.

Vielleicht kapier ich aber auch nicht, was du mit dimensionieren meinst. Wie ich schon erwähnte, Reserve empfinde ich auch als wichtig. Da kann ich ein System für Spielbarkeit in heutigen Spielen dimensionieren - morgen sieht es schon ganz anders aus und die vermeintlich gleich schnelle CPU, die ich heute noch nicht brauche, hätte sich ausgezahlt.
Und es kommt auch auf Ansprüche an, klar. Für den einen ist ein Dip bis 30 fps eine Katastrophe, für den anderen ist es noch ok, wenn die Frames mal unter 20 fallen.
 
Zuletzt bearbeitet:
Zurück
Oben