Neusystemkauf optimieren

Moderne Spiele laufen problemlos auf 3+ Jahre alten X3/X4 Prozessoren oder 5 Jahre alten Qxxxx. Die Grafikkarte ist da schlicht entscheidend. Daher ist es wurscht ob 3,7Ghz oder 4,2Ghz, die 10% machen in Spielen keinen Unterschied. Ob man aber z.B. eine Radeon 7770 oder Radeon 7870 im System hat ist von ganz entscheidender Bedeutung bei Spielen.
Nehmen wir einfach diesen BF3 Test. Da sieht man, dass selbst ohne OC ein Q6600 oder X3 740 problemlos über 50fps liefern. Aktuelle Cpus limitieren Spiele sehr sehr lang nicht.
Ob jetzt ein i5 später mal 33 statt 30 fps packt - und genau das ist der Unterschied zwischen i5-3470 OC und 3570K OC, nämlich 10% - ändert gar nichts.
 
BF3 ist quasi DAS Referenzgame für GPUs.
Ein Isoliertes Beispiel zeigt keine Allgemeingültigkeit, besonders nicht wenn dieses Beispiel fast schon eine Ausnahme darstellt.

Im Übrigen Besitze ich einen X4, wie vorher geschrieben, der auch schon auf 3,6ghz übertaktet ist.
In AC3 sind trotz bis zu 95% Auslastung auf allen vier Kernen oft keine 30FPS drin.
Die GPU (hd5870 ) langweilt sich dagegen auch mal mit 60% Auslastung
(gemessen mit (ms) Processexplorer) schier zu tode.

Und um die Serie russischer Benchmarks nicht zu brechen:
http://gamegpu.ru/images/stories/Test_GPU/Action/Hitman Absolution/hitman proz 2.png

Hier wäre ein C2Q 6600 ähnlich dem X4 620 aufgestellt,
26-33 FPS sind mMn schon grenzwertig und vielleicht für ein Singleplayer game akzeptabel.

Ich weiss jetzt nicht wieviele PC-Generationen du jetzt schon hinter dir hast, jedenfalls kann man irgendwann mal Einsicht zeigen und zugeben, dass Spiele nicht noch die nächsten 10 Jahre auf der exakt selben Hardware laufen werden.
Wer seinen PC für Spiele von heute kauft, darf morgen nachkaufen. Es gibt zwar eine subjektive Vernunftsgrenze ( <300€, bzw SLI/Crossfire) die man nicht überschreiten sollte, aber man sollte nicht am falschen Ende sparen. Ich kaufe auch nicht jeden Tag nur 1 Brötchen, 10g Käse, Wurst und 3 Würfel Zucker.
Besonders ironisch wird das ganze, wenn man sich vor Augen führt, dass man überhaupt erst soviel Geld für einen PC ausgibt, nur um Spielen zu können.
Das ist Emotion! nicht Nützlichkeit.
Das ist Audi S3, nicht Smart!
 
Zuletzt bearbeitet:
Immer ruhig. :)

https://www.computerbase.de/news/gaming/eigene-benchmarks-zu-assassins-creed-iii.38214/

Hier siehst du schön, dass Assassins Creed 3 mit 4 Intelkernen mit 3Ghz schön glücklich ist. Ich empfehle dem TE nicht einen X4 640 zu kaufen sondern sage ihm, dass es egal ist ob der i5 mit 3,7 oder 4,2Ghz läuft. Wenn das eine nicht mehr ausreicht ist auch beim anderen Schluss. 500Mhz bei 5 Kernen Unterschied machen im von mir verlinkten Test ca. 10% aus. D.h. wenn der 3470 bei 30fps hängt hängt der 3570K bei 33 fps. Hältst du allen Ernstes dasfür einen Aufpreis von 30-40€ für gerechtfertigt? Und selbst wenn man den doppelten Stromverbrauch und dann 4,7Ghz in Kauf nimmt... dann sind es halt 36 statt 30 fps.

Bei einem Spielrechner spart man an der Cpu und kauft nach 3-5 Jahren je nach Anspruch eine neue. Alles andere ist unnötig Geld ausgegeben.
 
Sowas wie Kontext ist nicht grade deine Stärke.
Ich glaube ich unterlasse alle weiteren Versuche einfach, dir verständlich zu machen, dass es mehr Zeitformen als nur das Präsenz gibt, oder überhaupt irgendetwas in Relation zu setzen.
Oder dass 30fps in einem Game "ausreichend" aber nicht erwünschenswert sind.
Oder auch, dass man sich einen Gaming PC nicht aus ökonomischen Gründen zulegt.

Übrigens ist der Mehrvebrauch mit "doppelt" auch wieder gnadenlos übertrieben, 0,1V Erhöhung verursachen keine... von 3.5 auf 4.5ghz = 25W mehrverb.... ach ich fang schon wieder an mich auf Spekulationen einzulassen.
In diesem Sinne schone ich meine Tastatur lieber,

MfG Cy
 
Zuletzt bearbeitet:
http://www.overclockers.at/articles/ivy-bridge-the-overclocking-guide
https://www.computerbase.de/artikel/prozessoren/intel-ivy-bridge-test.1728/seite-23
http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index26.php
Damit konnten wir allerdings den maximalen Kerntakt nicht wie erhofft steigern, denn bereits bei 4,5 GHz war wiederum das Ende erreicht. Zumindest bei unserem Exemplar hat sich die Spannungssteigerung somit nicht wirklich gelohnt. Hinzu kommt, dass die Temperaturen sowie der Verbrauch bei diesen Einstellungen massiv in die Höhe geschnellt sind. Die maximale Kerntemperatur betrug schon nahezu 90 °C und der Verbrauch kletterte auf für Prozessorkerne und L3-Cache verdoppelte sich nahezu (104 Watt statt 57 Watt inklusive Wandler).

Die Cpu verdoppelt den Verbrauch, der Rechner nicht. Und die Volt skalieren nicht mit dem Verbrauch... ;)

Hardware kauft man nicht für die Zukunft, denn der Unterschied bei aktuellen Cpus, die von mir dauernd erwähnten 10%, sind sehr klein. Kauft man in 3-5 Jahren dann eine neue Cpu hat man direkt +100%.
 
Intel Core i7-3770K, 4C/8T, 3,50 GHz (default) 133W
Intel Core i5-3570K, 4C/4T, 4,5 GHz (+0,1 Volt) 158W
Quelle, dein CB Bench

158W-133W = 25W

TDP 3770K 77W

25W/77W = 32,4% => Mehrverbrauch. "Doppelt" ist was anderes.

Wenn dich das nicht überzeugt.
http://www.au-ja.de/review-intel-core-i5-3570k-ivy-bridge-16.phtml
Das wirkliche Maximum an Mehrverbrauch sind hier 62%.
Beim 3570k sind es zwar mehr wie bei CB (38%), aber trotzdem keine 100% (verdopplung)
Hardware kauft man nicht für die Zukunft
Doch, für mindestens 2 Jahre soll Hardware halten. Wenn sie in 2 Jahren zulangsam ist, hat man was falsch gemacht. Persönlich kam ich meist mit 4-5 Jahren aus.
Und 5 Jahre sind zumindest für mich schon ferne Zukunft. Ich weiss nicht wie du das definierst.

Pentium 2, Athlon 2500xp, C2D 4400, "Phenom" II 840.
Und bei jedem (mit Ausnahme des P2) war ich dankbar, dass mir die Übertaktung noch 1,2 Jährchen hinzugegeben hat bzw gibt.
Unter diesem Aspekt berappe ich dann doch 20€ mehr um statt eines i5-3570 einen i5-3570K mein eigen nennen zu dürfen. Ich möchte mich nicht bloß für ein Jahr mit -guter- Leistung zufrieden geben und mich dann 3-4 Jahre mit "ausreichender" Leistung durchschlagen müssen.
Ich habe auch andere Ausgaben als mir alle 2 Jahre eine neue CPU kaufen zu müssen, nur damit ich meine 60FPS habe, wenn ich mal spielen möchte.

Wenn man pur ökonomisch denkt, bist du vielleicht der richtige Ansprechpartner.
Neue Midrange GPU alle 1.5 Jahre, Strompreise mitberechnen, billigstes Gehäuse, etc


PS: Gaming ist nicht ökonomisch.
Es ist pure Energieverschwendung.
Vielleicht kümmern sich 0,1% der Gamer um einen Mehrverbrauch von 25-30 W
Oder um 20€
Ich gehöre nicht dazu. Ich will Zocken. Und dafür investiere ich.

PPS: Fährst du einen Dacia? Wenn man dir einen BMW X5 xDrive50i schenkt, würdest du ihn fahren? trotz 13Liter Verbrauch?
 
Zuletzt bearbeitet:
"Die zusätzliche Spannung hat aber ihren Preis: Die Leistungsaufnahme steigt um 40 Watt, die Temperatur sogar massiv um 22 Grad."
Der i5 verbraucht keine 77W, das ist nur seine TDP. Im ht4u Test siehst du was die Cpus wirklich verbrauchen, die messen ausführlicher als CB.

Und ich wiederhole noch mal: es geht um 3470 vs. 3570k, nicht um Dacia vs. Bmw. Wenn du es auf Autos übertragen möchtest geht es um Bmw 530 gegen 535. :) Und ihm schenkt auch niemand einen 5er Bmw, er will sich eine CPU kaufen.
Und einem Spieler bringt ein übertakteter i5-3570K auch in 3 Jahren keinen Vorteil gegenüber einem i5-3470. Denn 10% sind und bleiben 10%. Egal ob jetzt oder in 5 Jahren. Und ob jetzt 120 zu 135fps oder in 5 Jahren 30 zu 33 fps, es lohnt sich schlicht und ergreifend nicht.
 
Und einem Spieler bringt ein übertakteter i5-3570K auch in 3 Jahren keinen Vorteil gegenüber einem i5-3470
Gibts die Glaskugel auch bei Amazon?

Wo deine 10% herkommen begreife ich nicht.
Schon allein auf den Takt bezogen wären wir bei 15% (4,5/3,8)
Da Ivybridge zudem sehr gut mit dem Takt Skaliert wird davon auch nicht viel abzuziehen sein.
und ob ich ein Jahr mit 25 oder mit 30 Fps spiele, wobei die Min fps dabei noch signifikanter sind, macht sehr wohl einen Unterschied.

Im übrigen,
Ein ungenügend leistungsfähiger Prozessor begrenzt auch die Grafikleistung und ferner das ganze System. Da sind reine % Werte schon einer Milchmädchenrechnung gleichzustellen.
Wenn du Wert drauf legst werde ich mal meine CPU von 3,6 um ~15% auf 3ghz Heruntertakten und dir dann einen AC3 Messwert liefern. (und das obwohl ich hier 600mhz und nicht wie die Intel-Cpu 700mhz einbüße, du zudem protakt eine bessere Leistung aufweisen).

Eines Sage ich schon vorweg, als "spielbar" wird es nicht ausfallen.
 
Brauchst gar nichts testen, hat CB vor einer Weile erledigt:
https://www.computerbase.de/artikel/prozessoren/bericht-gpu-braucht-cpu-zweiter-teil.1617/seite-4

4-9% Unterschied zwischen X4 965 und i7-2600K@4,5Ghz sagt glaube alles was man wissen muss.
In einem Spielrechner wird erfahrungsgemäß die Gpu Jahre lang in üblichen Szenarien von der Cpu nicht limitiert.

Hier ein ganzer Riesenthread dazu:
https://www.computerbase.de/forum/threads/limitiert-cpu-xyz-die-graka-abc.818979/

Zuletzt mit: https://www.computerbase.de/forum/t...yz-die-graka-abc.818979/page-24#post-13055374
 
Zuletzt bearbeitet:
Man muss auch erstmal selbst lesen, was man da postet.

Es liegt in der Natur der Sache, dass man eine "unzureichende" CPU nur in Verbindung mit einer potenten GPU erkennt.
Sofern die GPU zuerst limitiert, werden die CPUs logischerweise alle in einem ähnlichen Feld angesiedelt sein.
Somit beziehen sich die 4-9% in deinem Beispiel nicht auf die CPU Limitierung. Sondern auf die GPU.

Dieses Beispiel führst du jetzt jedoch an, um mir angeblich beweisen zu können, dass CPUs nicht limitieren.
(Nochmal: In einem Beispiel, in dem die GPU limitiert hat. Was verstehst du unter Beweisführung?)
Das ist logisch schlichtweg nicht haltbar.

Aber um deinen Link dennoch aufzugreifen:
Von AMD Phenom II X4 965
auf Intel Core i7-2600K => 26%
auf Intel Core i7-2600K @ 4,5 GHz 33%
mit
GPU: GTX590 (nicht limitierend)

Sollte man in 2-3 Jahren ein GPU Upgrade vornehmen (dieses kommt deiner Aussage immerhin früher als das CPU upgrade), wäre der obige Status erreicht wenn nicht übertroffen.
Eigentlich bringt bereits eine HD7970 Ghz in BF3 (dank neustem Catalyst) bereits die Leistung einer
GTX 590.

Demnach behaupte ich mal frech, dass in 2 Jahren jede 200€ Karte die GTX 590 liegen lässt.
Wenn man sieht, dass sich schon jetzt eine GTX660 über eine GTX580 erhebt, wird mir dieser Umstand wohl recht geben.
Die CPU Limitierung wird umso größer ausfallen, das Schaubild umso mehr an Gewicht zulegen.

Ich danke für den Link.
(Welchen du auch ersteinmal wirklich lesen und in die Diskussion einordnen können solltest, bevor du ihn als Gegenargument postest)

Zum Abschluss,
http://www.pcgameshardware.de/screenshots/original/2010/07/SC2-CPUs-OC.png
Siehe i7-860 mit turbo VS i7-860 @4 Ghz
38% Mehrleistung.
Und es wurden nur 2 Kerne genutzt.
Zum Vergleich.
Laut CB Bench ist ein i7-870 ~12 % langsamer als ein I5-3570k
Und damals war diese CPU zudem noch aktuell.

Du kannst das aufnehmen wie du möchtest, wenn du mit 30fps zufrieden bist, gut, hab ich kein Problem mit.
Wenn du 20€ sparen möchtest, auch deine Sache. Wenn du lieber früher als später deine CPU upgradest, wieder.. deine Sache.
Jedoch: Behaupten, dass eine CPU für so und so lange ausreicht ist völliges Kaffesatzlesen, einen GPU-limitierenden Benchmark anführen um eine CPU-Limitierung aufzuzeigen ergibt ebenfalls wenig Sinn, und
dass OC auf einmal den doppelten Verbrauch haben soll, konntest du auch nicht so wirklich beweisen.
(Das war Früher vielleicht mal der Fall, mit Wassergekühlten 6 Kernen. Aber nicht bei der Ivybdridge. )

Aus meiner Sicht hat sich dieser Disput auch eher in einen eristischen Schlagabtausch verwandelt, anstatt dass wirklich zusammenhängend argumentiert wird.

Von daher, Kopf hoch, nimms locker.
Irgendwann muss auch mal schluss sein, das Letzte wort überlass ich gerne dir.
Zu mehr als dem obigen Text kann ich mich dann aber auch nicht mehr aufrappeln.
MfG
 
Zuletzt bearbeitet:
Dass ein i7-2600K mehr als ein X4 965 leistet stell ich nicht in Abrede. :)
Das sieht man auch einfach hier:
https://www.computerbase.de/artikel/prozessoren/trinity-vs-ivy-bridge-im-cpu-test.1895/seite-8

Dort sieht man aber auch, dass der Unterschied ohne OC zwischen 3450 und 3570K 6% beträgt. Wechselt man zu Anwendungen, die wirklich alle Cpu-Leistung abrufen können, dann sieht man, dass dort der Vorsprung auf maximal 9% steigt: z.B. https://www.computerbase.de/artikel/prozessoren/trinity-vs-ivy-bridge-im-cpu-test.1895/seite-21

Mehr ist nicht drin in der Cpu, egal welche Grafikkarte man dran hängt. Und größer wird der Unterschied dann auch mit einer Grafikkarte in 5 Jahren nicht sein. Wie auch?
 
Zurück
Oben