Limitiert CPU XYZ die Graka ABC?

Das ist auf jeden Fall einen Pin wert !
Und hilft bestimmt so einigen bei der Endscheidung ob eine neue Grafikkarte oder/und CPU Upgrade notwendig ist.

Danke.
 
Hi HisN,

erst mal: Ein wirklich guter Beitrag. Aber....hast du zuviel Zeit? :). bzw. denkst du es hält sich jemand daran soviel zu lesen? - Ich würde es mir wünschen, damit diese sinnlosen Fragen nicht mehr aufkommen!
Aber ist wirklich gut und ausführlich geschrieben :)
 
Erstmal Danke an HisN für seinen Post. Habe schon mehrmals bewundert mit welcher gebetsmühlenartiger Gedult er tagein, tagaus immer wieder diese Frage beantwortet. Und grade weil diese Frage so oft aufkam würde ich es, wie viele von euch auch, sehr begrüßen, wenn dieser Thread gepinnt wird.

Lübke schrieb:
schön wäre es ja, wenn es eine faustformel für "welche cpu passt zu welcher gpu?" gäbe, aber wie von hisn ja schön erläutert, hängt das von vielen faktoren ab und kann nicht pauschal beantwortet werden. allerdings kann man durchaus total daneben liegen.
bsp: alter medion rechner mit 3 ghz pentium 4 soll mit einer gtx580 aufgerüstet werden, sollte jedem klar sein, wäre völlig unverhältnismäßig. selbst hier könnte man ein gpu-limit erzeugen, was aber wohl zu keiner rechtfertigung einer solchen kombination führen würde...

Ich denke auch, dass es ganz grob eine Faustformel geben muss. Im extrem vereinfachten Fall, harmonieren CPU und Grafikkarte ja genau dann optimal zusammen, wenn sie jeweils zum selben Zeitpunkt im gleichen Leistungssegment angesiedelt sind.
Beispiesweise Stand heute: CPU AMD PII X6 1060T (Performance) und GPU AMD 6870 (Performance). Mit diesem Segmet verbunden ist ein bestimmter Preis am Markt.
Oben genannte CPU aktuell: 200 Euro, die Grafikkarte ebenfalls ca. 200 Euro. Der CPU-GPU Korrelationsfaktor Marktwert CPU / Marktwert GPU sollte also im Optimalfall den Wert 1 annehmen.

Ohne weitere Untersuchungen anzustellen würde ich eine derartige Formel, eventuell erweitert um Korrekturkoeffizienten um besondere Marktsituationen zu berücksichtigen, zur groben Überschlagsrechnung als brauchbar bezeichnen.

EDIT: Eventuell sollten noch Korrekturkoeffizienten für Intel bzw. AMD eingeführt werden.
Code:
CPU Hersteller: K_CPU = 0.5 für AMD, 0.8 für Intel
K_Marktsituation = Martkwert GPU / Marktwert CPU + 1

Universelle Faustformel: (K_CPU * Marktwert_CPU * K_Marktsituation) / Marktwert_GPU

Evaluierung:
Intel i7 950 + AMD 6870 -> 1,8 [CPU überdimensioniert]
AMD X6 1060T + AMD 6870 -> 1 [passt perfekt]
AMD X2 5200+ + AMD 4670 -> 0,85 [GPU leicht stärker]
 
Zuletzt bearbeitet:
cfreak84 schrieb:
Beispiesweise Stand heute: CPU AMD PII X6 1060T (Performance) und GPU AMD 6850 (Performance). Mit diesem Segmet verbunden ist ein bestimmter Preis am Markt.
Oben genannte CPU aktuell: 200 Euro, die Grafikkarte ebenfalls ca. 200 Euro. Der CPU-GPU Korrelationsfaktor Marktwert CPU / Marktwert GPU sollte also im Optimalfall den Wert 1 annehmen.

Das sehe ich anders. Man muss es immer individuell betrachten, darauf wollte HisN auch hinaus. Ne Faustformel kann es da einfach nicht geben, weil die Spiele zu unterschiedlich sind.
 
Excellenter Beitrag. Dennoch wird es uns vor den böhsen skript-Kiddies nicht retten können. Für alle anderen User gilt lesen und verstehen. :)

Vote 4 Pin ^^
 
DunklerRabe schrieb:
Eigentlich sind es heutzutage die wenigsten Spiele, was nicht zuletzt z.B. an steigenden durchschnittlichen Auflösungen der Kundschaft liegt.

Grundsätzliche eine gute Erklärung, doch leider fürchte ich, dass das an der Grundproblematik nichts ändern wird.
Das Thema wurde so oft durchgekaut, dass es ein leichtes ist, einen entsprechenden Thread zu finden, wenn man mal die SuFu bemühen würde. Und jemand, der das nicht macht, der wird diese Erklärung auch nicht lesen.

naja, also wenig spiele würde ich nicht sagen, sc2 fällt mir spontan noch als drittes beispiel ein und ich kenne längst nicht jedes aktuelle spiel auf dem markt.

die sache ich ja auch die: du reduzierst die arbeit des prozessors auf die anzahl fps, die er "verarbeiten" muss, was du aber nicht bedenkst ist, dass es natürlich ein unterschied ist ob der prozessor X 6 megapixel bilder verarbeiten muss oder X 0.3 megapixel bilder. die datenmenge bei den großen bildern wäre viel höher.

sollte deine theorie wirklich stimmen, müsste man crysis auf ultra mit allen möglichen einstellungen ja auf einem 1ghz dual core genau so spielen können wie auf einem 4ghz dual core, da die graka zu 100% limitiert. das wage ich aber mal stark zu bezweifeln.
 
Mr_Blonde schrieb:
Das sehe ich anders. Man muss es immer individuell betrachten, darauf wollte HisN auch hinaus. Ne Faustformel kann es da einfach nicht geben, weil die Spiele zu unterschiedlich sind.

Prinzipiell ist das ja richtig, da eine individuelle Betrachtung aber in den seltensten Fällen möglich ist, weil man eine Grafikkarten-CPU-Kombination oft auch nicht nur für ein Spiel oder eine Anwendung, sondern mehrere Spiele verwendet, darf man das Einsatzfeld nicht zu spezialsiert betrachten.
 
In erster Linie gehts doch in HisNs Beitrag darum, dass jemand der die Frage stellt so viele Informationen nennt wie möglich.
Anhand dieser Informationen ist es schon möglich eine individuelle Beratung zu leisten.
 
die vermutlich in 95% der Fälle auf das hinausläuft was ich zum Ausdruck zu bringen versuchte...
 
Zuletzt bearbeitet:
togepi schrieb:
n
die sache ich ja auch die: du reduzierst die arbeit des prozessors auf die anzahl fps, die er "verarbeiten" muss, was du aber nicht bedenkst ist, dass es natürlich ein unterschied ist ob der prozessor X 6 megapixel bilder verarbeiten muss oder X 0.3 megapixel bilder. die datenmenge bei den großen bildern wäre viel höher.

sollte deine theorie wirklich stimmen, müsste man crysis auf ultra mit allen möglichen einstellungen ja auf einem 1ghz dual core genau so spielen können wie auf einem 4ghz dual core, da die graka zu 100% limitiert. das wage ich aber mal stark zu bezweifeln.

Dann klamüsern wir auseinander was die CPU macht und was die Graka macht.

Die CPU bereitet die Daten für die Graka vor. Sie "baut" eine Szene aus Dreiecken auf.
Die Graka transformiert die Szene die sie von der CPU bekommen hat auf die richtige Größe und bemalt die Dreiecke (supergrob).

Und Du meinst die Anzahl der Dreiecke ändert sich mit der Auflösung und die CPU hat da irgendwie was mit zu tun? NEIN. Es ist alleine die Arbeit der Graka die Dreiecke zu transformieren und anzumahlen. Und der CPU ist es völlig egal ob das Bild später in 640x480 oder 6000x1200 ausgegeben wird. Die Arbeit, ist die Arbeit der Graka (Ausgabe), die Daten für die Bilder kommen nämlich aus ihrem Framebuffer. Sie holt sich nur die Vorbereitete Szene und die Texturen vom Rechner. Der Rest findet in ihrem Speicher statt. Ein Wald hat ja nun in 640x480 nicht 100 Bäume und in 2560x1600 sind es dann 200. Es werden 100 Bäume bleiben, auch wenn Du jetzt mehr Details erkennen kannst. Die Details werden bestimmt in 640x480 auch da sein, man kann sie nur nicht wirklich erkennen :-) Oder andersrum, Du wirst in 2560x1600 eher erkennen wo den Bäumen Details fehlen^^

Ich lass mich da gerne eines besseren belehren, da gibt bestimmt Feinheiten die ich nicht verstanden habe. ABER ob ein Bild nun groß oder klein gerechnet wird, das ist der CPU wahrlich egal.
 
Zuletzt bearbeitet:
@cfreak84: Deine Formel kann eigentlich nicht hinhauen, denn man braucht auf 22" keinen X6 um eine 5870 zu befeuern, die in etwa gleichviel kosten. Eine 5870 merkt keinen Unterschied zwischen einem Phenom X3 (70-80 Euro) und X6.
 
Hervorragende Arbeit HisN !

Ich verstehe den Text sehr gut!
Auch Deine Absicht warum Du ihn geschrieben hast.

Leider befürchte ich nur, dass das 0815-CS-Kiddy nur sieht "OMG! Wall of text!!!!!!111einseinself" und nicht weiterliest.
Und selbst wenn "es" weiterliest, es nicht versteht.

Wie gesagt, Applaus für Deinen Text und die gute Verständlichkeit.
Aber die Fragen werden nicht aufhören, fürchte ich....
 
@cfreak84
Dann nehmen wir doch einfach mal mein derzeitiges System als Beispiel.
Bei Spielen sind 1200EUR in 2 GTX580-super-duper-oc-hastenichtgesehn aus Leistungssicht besser investiert als 1 EUR mehr in einen 6 Kern Prozessor. 1200:170 = 7
Würde ich nochmal 1000EUR in einen neuen Prozessor investieren, würde es in 99% aller Spiele keine Leistungssteigerung geben.
Der entstehende Faktor wäre nach Deiner Faustformel allerdings dramatisch besser.
 
HisN schrieb:
@togepi
Wann sind sie CPU-Lastig?
Ich dachte genau DAS hätte ich versucht zu erarbeiten.
Kauf Dir einen großen Monitor und schau wie sehr die CPU noch in Deine Ergebnisse reinspielt.
DAS ist doch genau der Grund warum alle CPU-Gaming-Tests in 800x600 gemacht werden. Weil man nur da die Unterschiede herausarbeiten kann.

Selbst das ist nicht exakt. (wenn ich mir die Benchmarks ansehe)
Was passiert den wenn wir auf 800*600 runter gehen? (gehen wir mal von einem Setting aus, bei dem mal zu GPU limitieren stellen und mal zu CPU limitieren stellen kommt in höherer Auflösung)

Was passiert die Avg Frames steigen immens an, die CPU mit viel Luft kann in GPU limitierten stellen sehr viel mehr leisten. An den stellen an den das CPU limit nagt, ändern sich die FPS nicht, da sie ja Auflösungsunabhängig sind.

Defakto ist also nur interessant ob eine 'bestimmte CPU' im gegebenen Moment ausreichend Leistung hat um ausreichend Daten liefern damit die Grafikkarte XXX FPS liefert (XXX= gewünschte Framerate)

Wie müsste man also in Spiele-CPU Tests vorgehen:

1. Eigentlich müsste man für jedes Game bei einen CPU Limit test machen
2. Verifizieren das die CPU in jeder Situation mind. XXX FPS befeuern kann (XXX = 60FPS oder 120FPS)
3. Spiel abhaken

Nach dieser Verifikation ist die CPU für den Spiele PC kein Thema mehr.
Nun kann man anhand dieser Daten (CPU reicht/CPU reicht nicht für XXX FPS)
seinen PC dimensionieren.
 
Zuletzt bearbeitet:
Danke, Hisn.

Kann ein Mod mal Hisns Thread oben festtackern, falls nicht geschehen? Und er kann in Linksammlungen aufgenommen werden, und/oder im FAQ.

Hier noch Beispiele von mir zum Thema:

Ich habe den AMD Phenom 2 X4 965 auf Standardtakt. Und ich hatte kurzzeitig die GTX580 und jetzt die 480. Bei Just Cause 2 habe ich mit beiden Karten eine deutliche Leistungsteigerung gegenüber der GTX470. In dem Fall limitert die Grafikkarte, sogar die 580 bei diesem Prozessor. Auch ist Arcania grafiklimitiert. Da hatte ich mit der 580 ein flüssigeres Spielerlebnis gegenüber der 480. Ich habe bei beiden Spielen eine Grafikauslastung von fast 100%. Beide Spiele laufen mit maximal einstellbarer Grafik auf 1680*1050.

Bei GTA IV ist es auch bei mir anders rum. Das ist CPU-limitiert. Zwischen 470 und 580 war kein Unterschied. Bei beiden ist die Auslastung der Grafikkarte total mies, bei der 580 sogar noch niedriger.
 
Zuletzt bearbeitet:
@Fairy Ultra: Damit stimme ich schon deutlich eher überein als mit HisNs Standardantwort. Ist nämlich ebenfalls eine eigene Beobachtung von mir, dass die CPU NICHT nur eine so kleine Rolle spielt wie sie HisN immer darstellt. ich glaube deine Logik stimmt da nicht ganz HisN, Fairy Ultra bringts perfekt auf den Punkt.
 
Der Text ist leider zu lang geworden. Leute die fragen ob ihr Phenom 2 x6, core i7 für eine aktuelle Grafikkarte reicht, haben von der Materie eh nicht viel Kenntnisse.

Ich würde eher weitere Hilfe zur Selbstdiagnose stellen. ZB wie man selbst herausfinden kann, was limitiert mit GPU-Z, CPU-Z, Taskmanager etc.

Ist nämlich recht spannend zu sehen, wenn ein Game nur ein Kern von 4 auslautet, die Grafikkarte im Stromsparmodi läuft etc. (Hab ich schon alles gehabt mit meinem neuen System..).
 
Also, ich habe jetzt mal ein bisschen rumgebencht, erstmal nur mit dem Far Cry 2-Benchmark. Und eine Aussage wäre zumindest mal vorrübergehend wiederlegt, nämlich, dass die CPU die Auflösung nicht interessiert.



Bei gleicher BQ, nur andere Auflösung, 20% weniger Frames.
 
Zurück
Oben