Mit welcher CPU welche Grafikkarte am besten ausreizen? Was haltet ihr von der Idee?

wurstmuffin

Lt. Commander
Registriert
Nov. 2005
Beiträge
1.941
Moin.

Es gibt ja einige die eine fette CPU haben und nun mit einer neuen Grafikkarte nachziehen und genauso umgekehrt, also zu ner fetten Grafikkarte ne CPU holen. Da ich zZ mit dem Gedanken spiele auf nen DualCore umzusteigen und nun auch die neuen Ati Karten bald kommen, stellt sich natürlich die Frage welche CPU zu welcher Grafikkarte.
Ich hoffe mal, das wurde hier nicht all zu oft durchgekaut, wenn ja, bitte nen Link geb und ich bin zufrieden :D. Hab in der Art bisher nicht viel gefunden.
Die ganzen CPU und Grakatests von CB und auch anderer Foren sind zwar schön und gut, wenn auch nicht immer nützlich, aber diese eine Frage blieb mir bisher immer unbeantwortet.
Wovon ich rede ist folgendes:
Man nehme die fetteren Karten von Ati und Nvidia, also zB die 79xx, 88xx und die 19xx (und wenn man gerade dabei, vll auch meine 18xx :D) und mache ein paar Tests mit verschiedenen CPUs, Singlecore sowie DualCores um halbwegs zu klären wann sich was lohnt bzw welche Kombination (jetzt nicht nVidia oder Ati, sondern wie fett die Karte und wie fett die CPU :P)
Klar, so ein Test wäre für das Testlabor der CB zu umfangreich, würde aber vielen die eine oder andere Gewißheit verschaffen, wie zB mir:
Wird meine 1800xt durch meinen 3800+er ausreichend ausgereizt (in nicht DC optimierter Umgebung)?
Würde ein DC in der entsprechenden Umgebung viel mehr bei einem weit erhöhten Takt bringen oder limitiert da eher schon die Karte?
Wenn man auf die neue Grakageneration umsteigt, was nimmt man da für ne CPU?

Wie ihr seht, Fragen über Fragen und so recht beantworten, ohne alles sehr abstrakt abzuschätzen, fällt schwer.
Ich wende mich deshalb an die CB-Leserschaft mir und wahrscheinlich vielen anderen dabei bissel zu helfen.
Wenn das keinen interessiert, so ists kein Problem, aber meiner Meinung nach könnte man das gut ausbauen und wenn man den Thread pflegt, kann es durchaus sogar als Kaufberatung dienen :D
Ich würde das gern übernehmen, wenn genug Leute mitmachen! :evillol:

Also, es würde, so wie ich das meine, so gehen:
Am besten geht es natürlich, wenn man seine CPU übertaktet hat!
Man nehme seine Karte, seine CPU mit Standardtakt und zB den 3D Mark 03/05/06, dann die CPU schrittweise übertakten und die Ergebnis notieren (am besten mit nem Beweisscreen). So könnte man in etwa festellen, wann was wie stark limitiert und man mit seiner CPUzuGraka-Leistung zufrieden sein kann.
Natürlich wäre es am besten, wenn man das an Games testet, nur ist das so ne Sache für sich, da jeder eben nicht die gleichen Games besitzt.
Klar, man könnte das ganze auch aus den 3D Mark Freds ausarbeiten, nur ist das für einen an sich ne Sauarbeit :(
Wenn mir also jemand gern mit seinen Ergebnissen beisteht, würde ich das sehr gern begrüßen.
Werde bei mir mal die Tests machen und die Ergebnisse für 1,8-2,0-2,2-2,4 Ghz notieren, wobei ich nicht glaube, dass meine Graka durch die CPU wirklich ausgereizt wird :(.
Bevor man aber loslegt ist ja noch ein Wort zu sagen. Wie man sich das ja schon länger sagt, limitieren die Karten wohl erst ab höheren Auflösungen, ich werd mal das ganze mit Company of Heroes testen und an vll HL². Für Midrange wären aber schon schon Auflögungen von 1024x768 durchaus interessant bzw sinnvoll zu betrachten.

Eigentlich wäre es für Leute im Midrangebereich durchaus interessanter als für HighEnd.
Ich zumindest könnte die Frage klären: nen X2 (welcher Takt?!) zu meiner 1800xt oder nen C2D (welcher Takt) zu ner 2xxx bzw 8xxx.

Also was haltet ihr von der Idee?
 
der limitierende faktor bei den "großen" karten ist IMMER die CPU.
I.d.R. laufen die großen Karten expotentiel zu der Leistung eines CPUs.
D.h. ne 8800Ultra hat auf nem e6400 deutlich weniger frames, als auf einem e6600 bei 3,4 Ghz. Deutlich heißt jetzt nicht 20-30 Frames, sondern eher 5-7.

Die Karten sind so komplex, dass sie in etwa die selbe teilweise sogar mehr transistoren haben, als die eigentliche CPU. Deshalb ist Deine 1800XT für jeden Dualcore geeignet, ob nun nen amd x2 oder nen intel c2d. Einzig und allein ein Singlecore bremmst due Karte aus, da die meistens Games mittlerweile auf DC setzten.

mfg
 
Deine Idee ist schön und gut, aber du kannst das jeweils nur auf ein Spiel oder eine Anwendung hin testen bzw. mehrere davon und mitteln.
Eine Gesamtangabe ist kaum möglich - verdammt viel Aufwand.

Ich habe jedoch mit meinem C2D gebencht bei 1.8GHz und bei 2.4GHz.
Und zwar mit max. Details in 1280*720 mit 2xAA und 8xAF sowie in 1024*768 vanilla.

Ich fass mal zusammen für 1024*768 beim Sprung von 1.8GHz auf 2.4GHz:

* CoD2 +15%
* Supreme Commander +50%
* Dark Messiah +35%
* TES4 +15%
* Titan Quest +5%
* CSS +50%

und das ganze bei 1280*720:

* CoD2 +5%
* Supreme Commander +40%
* Dark Messiah +25%
* TES4 +10%
* Titan Quest -
* CSS +40%


das ist nur gaaaanz grob nach den FPS die ich gemessen hab, ich kanns auch leider nimmer nachstellen, da ich warum auch immer nimmer OCen kann :(

wie du siehst bringts in CPU-lastigen Spielen (Source-Engine, SC) spürbar mehr, auch in 1280*720 mit AA/AF.
bei GPU-lastigem (CoD2, TES4) oder Spiele die eh schnell laufen (TQ) bringts kaum was.
Hier limitiert bereits die X1900XT.

Mein Fazit:

Einer 7900GTX oder X1900XT sollte man eine CPU vom Schlage eines C2D @ 2.2GHz oder einen A64 X² @ 2.5GHz zur Seite stellen.
Ich habe testweise auch mal einen Kern deaktiviert; CSS, Titan Quest sowie CoD2 und TES4 wars fast egal, Dark Messiah ist teilweise derbe mit den fps runter und Supreme Commander war unspielbar - egal welche Auflösung.

cYa
 
Zuletzt bearbeitet:
je mehr ich darüber nachdenke, desto mehr Aufwand bedeutet die ganze Sache, deswegen müßte man sich, bevor man wohl loslegt, erst mal auf bestimmte Verfahren und Einstellungen einigen, auch in in den Treibern, wobei die Treiberversionsangabe noch da stehen müßte. Klar wird das am Ende ne grobe Aussage, aber schon hinreichend und mich ne 1600xt zb mit nem C2D@3Ghz zu betreiben und zu meinen, man hätte zu wenig Leistung oder sowas :D

Edit: ging mir erst mal darum was ihr davon haltet und wie man das umsetzt :)
 
mir ist allerdings schleierhaft, wie du durch eine anhebung des cpu-takts um 33% eine 50% höhere framerate erreichen kannst.
ich könnte mir höchstens vorstellen, dass dadurch evtl. stuttering verringert wird und damit vor allem die frameraten im fps-keller reduziert werden.
wahrscheinlicher ist imo allerdings, dass deine tests nicht aussagekräftig sind.

@Russe_83: cpu-skalierungstests hat cb schon gemacht. allerdings was älter, aber wegen dem extrem hohen aufwand macht man solche tests sowieso sehr sehr selten.
dabei ist die leistung eines a64 absolut vergleichbar, am ähnlichsten ist einem core2 da noch der pentium m.
 
Zuletzt bearbeitet:
@ riDDi

ich sag ja, dass ist nur sehr sehr grob :freak:
ich habs vll auch net so mit Prozentrechnung^^

da ich nimmer OCen kann, kann ichs vorerst auch net belegen.
bei SC ists echt so, das sprint auf jedes MHz an.

cYa
 
das ist auch ein hoher Aufwand, deswegen wird ja auch nicht von CB selbst, also den Testlabor gemacht :)
Damit wollte ich Fragen klären wie: was nehme ich zu meiner 1900xt, nen DC@2Ghz oder hole ich mit entsprechende Hardware um meinen DC auf 3Ghz zu bringen? Bzw was nehme ich zu meinen DC@2Ghz, ne 1900xt oder lieber ein weit schächeres Modell, da die CPU eh limitiert ;)
 
@y33H@
Das glaubst du doch selber nicht;). Mit 600MHz mehr Takt gleich 40% mehr frames in CSS? Das will ich sehen! Ist jetzt net böse gemeint aber Vorstellen kann ich mir das auf gar keinen Fall.
Kannst du mir bitte deine minimum-fps in CSS so ca. sagen? ( Aber in Action, also mehrere Models im Blickfeld und dazu noch geballere) denn ich hab echte FPS-probs:( und ich will mir jetzt auch nen C2D(6600) kaufen und wissen, ob ich mit einem großen Performanceschub rechnen kann oder eher weniger.
 
@ Russe

ich finde, dass kann man auch so recht gut abschätzen.
das man zum spielen heute einen DC ab X² 3800 oder e4300 braucht, ist klar - egal welche GraKa.
es gibt zwar noch einige Spiele, die mit nem 4000+ oder P4 mit 3.6GHz gut laufen, aber das ist nicht mehr UpToDate.

ab einer x1x00xt oder 7950gt sollte dann ein e6400 oder X² 4400 her, die 8800er brauchen einen e6700 oder X² 5600+ aufwärts für volle leistung.
bei GPU limitierten spielen wie SC langt eine 7600gt, dafür muss ein e6400 her.
CoD2 ist alles über nem X ² 3800 egal, dafür muss aber eine x1950pro/7900gt her für gute Grafik - also so 1280*1024 mit 2xAA/4xAF.

@ flash230188

ich bin dust1 beim 5on5 nie unter ~80fps gefallen mit 2.4GHz.
mit 1.8GHz sind immer über 60 gewesen.
mein A64 3000+ ist da teilweise auf gute 20 runter :freak:

wegen 600MHz und 40% mehr: 60 fps +40% sind 84 fps :D
ist nur gaaaaaaanz grob.

cYa
 
Zuletzt bearbeitet:
Leute, bitte, bevor es in irgendwas ausartet, halt! Bitte keine Comments mehr zu den Ergebnissen!
Es geht nicht darum wer was nu wie geschafft hat!
Die Ergebnisse werden später wohl nur mit Screens eingetragen und die ohne nur zur Kenntniss genommen!
 
auflösung spielt auch ne grosse rolle .... umso grösser, desto wichtiger die graka
 
@y33H@: ist ja schon ein Anfang, wiederrum größtenteils geschätzt :)

So viel Aufwand ist das eigentlch auch nun wieder nicht. Ich mein bei Ati nehme man die x1x00 Serie, jetzt nicht jede Karte, aber zB die XTs und erst ab der 1600er. Das würde das ganze gut einschränken. Bei Nvidia kenne ich mich mit der Leistung weniger aus, zudem gibts da echt pervers viele Modelle :D
Ist natürlich alles relativ und wohl schon von Spiel zu Spiel unterschiedlich. Was ich wissen wollte ist halt, wann die Limitierung durch die CPU so abnimmt, dass man in etwa sagen kann, welche CPU ausreicht und das könnten eigentlich die Leute am besten mit ihren C2Ds@>3Ghz testen :D Da könnte man gut sehen, wann die ihr Potential ausschöpfen.

Schön wäre natürlich wenn man die CPU und Grafikkartenauslastung mit Tools im Hintergrund aufzeichen könnte. Bei CPUs sollte es bestimmt möglich sein, aber bei Grakas wohl eher nicht :(

@`basTi: klaro, das habe ich ja auch schon erwähnt ;)
 
...und unwichtiger die CPU. Genau.

Bei Auflösungen von 16xx X 1xxx spielt die CPU keine große Rolle mehr und die Spiele tendieren mehr zur GPU. Vor allem dann, wenn noch AA/AF hinzugeschaltet wird.
 
reiz mal bei CSS eine 8800Ultra aus :D

selbst in 2500*1600 mit 8xAA und 16xAF langweilt die sich und ist auf ne fette CPU alla e6600 angewiesen, vor allem wegen den minimum-fps.
bei Source titeln spielt egal welche auflösung die CPU die hauptrolle, sofern die Graka x1900xt niveau hat.

cYa
 
Das dementiere ich:

41.png


Ein ähnliches Bild gibt es bei Auflösungen um 16xx X 1xxx inkl AA/AF bei aktuellen High-End Karten, zumindest im Rahmen der X19xx/8800GTS.

Die GTX könnte vielleicht noch ein klein wenig mehr Power haben, so dass es zu einem leichten Anstieg kommen könnte.
 
y33H@ schrieb:
Mein Fazit:

Einer 7900GTX oder X1900XT sollte man eine CPU vom Schlage eines C2D @ 2.2GHz oder einen A64 X² @ 2.5GHz zur Seite stellen.
Ich habe testweise auch mal einen Kern deaktiviert; CSS, Titan Quest sowie CoD2 und TES4 wars fast egal, Dark Messiah ist teilweise derbe mit den fps runter und Supreme Commander war unspielbar - egal welche Auflösung.

cYa

Das ist eigentlich ne geniale Sache mit der Coredeaktivierung :D

@AvenDexx: Das ist zwar ne wichtige Sache, aber wohl auch allen bekannt ;)

Ok, dann haben wir ja schon mal grob zusammen getragen welche Kombis Sinn machen :)
Frage ist dann, was ein C2D@>3Ghz aus ner 1900xt bzw 8800GTS/GTX rausholt im Vgl. zu den bereichts erwähnten X2@2,5Ghz und den C2D@2,2Ghz?
 
Anscheinend ja nicht so ganz, wie man sieht.

Wenn solch ein Test durchgeführt wird, sollten Auflösungen genutzt werden, die am weitesten verbreitet sind. Das wäre dann 1280x1024. Danach mit den gleichen CPUs dann bei 1280x1024 AA/AF testen und schauen, wie es sich dann verhält.

Vorweg sind da 3DMark03 und 3DMark05 nicht zu gebrauchen, denn diese reagieren zu stark auf Erhöhungen der CPU, was in höheren Punkten resultiert. Das macht 3DMark06 zwar auch, doch kann man da sehr schön die SM2.0 und SM3.0 Ergebnisse zum Vergleich heranziehen.

Mein Vorschlag wäre also:

AMD X2 @ 2500MHz 1280x1024 | 1280x1024 4AA/8AF
C2D @ 2,13GHz 1280x1024 | 1280x1024 4AA/8AF
C2D @ 3,0 GHz 1280x1024 | 1280x1024 4AA/8AF

Dann aber auch speziell Spiele die eher Grafiklimitierend sind. Überwiegend CPU-Lastige Games machen da nicht so viel Sinn.
 
Zuletzt bearbeitet:
@AvenDexx: Das nenne ich mal nen guten Vorschlag. Wobei es bei Spielen auch so ne Sache ist. Dreht man die Quali voll auf oder testen man mit den Einstellungen, mit dennen das Spiel dann auch wirklich flüßig läuft? Nur AA und AF zu ändern wäre ja nicht alles.
Kann auch gut sein, dass sich zwischen den Taktraten selber CPU an den fps nicht viel ändert, man aber dann die Qualität in derselben Auflösung höher drehen kann und das Spiel dann immer noch flüßig läuft.
Wie ich in deiner Signatur sehe, hast du ja echt Monsterhardware, was wären die ultimativen Ergebnisse schlechthin :D
 
Nur an der Qualitätsschraube zu drehen kann ne Menge ausmachen. Ne ganze menge. Da kann gerade bei 1280x1024 AA/AF zum grafiklimitierenden Faktor werden. Daher ist das ja gerade so interessant. Dann könnte man nämlich sagen, dass auch ein X2 @ 2500MHz für eine 8800GTX schon ein netter Unterbau sein kann. ;)

Weiter könnte man nun auch heranziehen, wie sich bei den Auflösungen und Qualitätseinstellungen die einzellen CPUs mit verschiedenen Taktfrequenzen verhalten.

Also dann einen X2 @ 2500MHz VS. X2 @ 2000MHz bei 1280x1024 | 1280x1024 4AA/8AF

Beim C2D dann das Gleiche.
 
@ AvenDexx

eine 68U kann meiner meinung nach wie eine x800xt von mehr als einem FX-53 kaum spürbar profitieren.

eine x1900 springt da viel viel mehr an.

cYa
 
Zurück
Oben