Wie hoch ist der Leistungssprung von SandyBridge i2600k auf Ryzen 5600x?

Bittesehr, alle Werte stammen aus meiner persönlichen Ermittlung, es wurden diverse Spieletitel in 1080p bei meist maximalen Details getestet:

1648825968145.png

Das gleiche mit der RTX 3060 Ti:
1648826023297.png

Hier noch, was nur mit dem 2600K allein mittels Overclocking und schnellem RAM in Verbindung mit der GTX 1070 machbar ist:
1648826192980.png

Overclocking und im Idealfall ein sehr scharfer RAM sind hier also obligatorisch, um auch wirklich das allerletzte aus dem 2600K herauszuquetschen.

Die OC-Tests wurden bei 4,8 GHz Allcore durchgeführt.

Entscheide selbst.
 
  • Gefällt mir
Reaktionen: Rios, HerrRossi, h2f und eine weitere Person
JMP $FCE2 schrieb:
Einfach sich vom 4k-Hype lösen, und die Auflösung runterschalten.
Völlig korrekt :daumen: Ich bin beim Gaming von 4k runter auf 1440p gegangen, mit meiner 2080ti läuft jetzt alles super und es sieht auch nicht wirklich schlechter aus.
 
  • Gefällt mir
Reaktionen: Rios und Teckler
DJMadMax schrieb:
Mein Netzteil ist ebenfalls 11 Jahre alt, das habe ich nämlich auch damals mit der Sandy Bridge zusammen gekauft. Heute betreibe ich einen 12600K und eine RTX 3060 Ti damit. Was sagst du nun?
Freu dich doch das es geht ... Kinderkram. Sollte man einfach bei einer Neuanschaffung bedenken.
 
Rios schrieb:
Zocken kann ich mir nicht so recht vorstellen bei einer GTX1070.
DAs kommt wie immer auf das Spiel und deine Einstellungen an.
Hatte von einem 3700K auf den 2700X gewechselt und damals bei Diablo 3 und Starcraft 2 gigantische Sprünge festgestellt.
 
  • Gefällt mir
Reaktionen: Rios
@metallica2006
Es geht mir einfach tierisch auf den Senkel, dass in diesem Forum alle Nase lang neue Netzteile empfohlen werden, nur weil sie per eurer Definition alt sind. Hier wurde sogar blind davon ausgegangen, dass das Netzteil des TEs, obwohl er es nicht in einem einzigen Wort erwähnt hat, getauscht werden sollte beim Kauf einer neuen Grafikkarte bzw. generell neuer Hardware. Geht ja immer einfach von der Hand, wenn's nicht das eigene Geld ist und wenn's auch nicht die eigenen Ressourcen sind, die permanent verballert werden. Obsoleszenz ist ja so etwas tolles. Ich bin schon gespannt, wann die Leute endlich ihre ollen Elektroverkabelungen aus den Wänden reißen und sich geordneten, linksrum gerührten Strom aus dem eigenen Schlangenölkraftwerk für die neue Grafikkarte besorgen, denn alles andere geht mal gar nicht.

Bleibt endlich mal auf dem Teppich! Und wenn das Netzteil 50 Jahre alt ist - sofern es seinen Dienst tut, tut es seinen Dienst. Und ja, ICH habe 50 Jahre alte Netzteile im Betrieb und die funktionieren tatsächlich einwandfrei.
 
  • Gefällt mir
Reaktionen: Weedlord, Qyxes und h2f
Bei 4K wird eine CPU keinen signifikanten Leistungsgewinn bringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HerrRossi
Ich sollte "High" und "Low" besser in "Max" und "Min" umbenennen, merke ich gerade ^^

Das sind die gemittelten Maximal- und Minimal-FPS aus ca. 10 verschiedenen Spielen zusammen.

Genaueres folgt demnächst in einem Leserartikel, den ich dazu verfassen werde.
 
  • Gefällt mir
Reaktionen: Rios, mrcoconut und Zwirbelkatz
Grundsätzlich ist der Sprung von einem 2600K auf einen 5600X gewaltig.

Hier gibt's einen relativ aktuellen Vergleich u.a. Zwischen einem 2600K und zumindest einem 3700X. Der 5600X kann zum 3700X je nach Spiel noch eine gute Schippe darauflegen.

Im Fall deiner bevorzugten 4K Auflösung bist du i.d.R. eher im GPU Limit. Was dein 2600K in deinen Spielen noch zu leisten vermag, kannst du doch testen, in dem du die Auflösung auf 720P runter drehst und die FPS überprüfst.

Ich betreibe auch noch ein System mit einem 2600K, der bei mir seit Jahren aber nur noch als YoungTimer Nebensystem genutzt wird. Der hat mir einfach in meinem bevorzugten Spielen (BF 1 und 5) im MP ungenügende Leistung geboten.

VG 🙋‍♂️
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rios
mrcoconut schrieb:
Was dein 2600K in deinen Spielen noch zu leisten vermag, kannst du doch testen, in dem du die Auflösung auf 720P runter drehst und die FPS überprüfst.
Ich gebe dir insofern recht, dass man auf diese Weise gut das CPU-Limit ausloten kann, aber einen Mehrwert für den Anwender hat dieser Test leider nicht - das bemängel ich auch immer hier auf ComputerBase, wenn Spiele in 720p für den CPU-Test durchgebencht werden.

Man sollte es schon in einem für den Anwender nutzbaren Rahmen halten - also wenigstens Full HD-Auflösung bei moderaten Grafikeinstellungen - eben so, wie man es auch selbst spielen würde. Ich habe nichts davon, wenn ich sehe, dass meine CPU in 720p irgendwann zum Bottleneck wird, wenn ich in dieser Auflösung sowieso niemals spielen würde.

Und dann ist der 2600K eben weit von seinen Fähigkeiten entfernt, wenn man ihn mit "langsamen" RAM und ohne Übertaktung betreibt (siehe meine Charts zuvor). Da lässt sich schon noch gut was an Leistung rausholen, besonders wenn eine modernere Grafikkarte dazugepackt wird - aber das Ganze hat natürlich dennoch seine Grenzen.

Wenn man durch Overclocking aber z.B. in der Lage ist, das angepeilte Ziel von z.B. stabilen 60 FPS dauerhaft zu überbieten, dann macht Overclocking (und zur Not der Kauf eines besseren und dennoch zukunftssicheren Kühlers) eventuell mehr Sinn, als extra dafür eine neue CPU, ein neues Mainboard und neuen RAM zu kaufen.
 
  • Gefällt mir
Reaktionen: Rios
DJMadMax schrieb:
Ehe ich es vergesse: Bei Sandy Bridge (um das CPU Limit weiter anzuheben) profitierst du übrigens sehr von 2133 MHz-RAM gegenüber 1600 MHz (langsameren RAM hast du hoffentlich nicht im Einsatz).

Du schreibst von 24 GB RAM - hast du ein 16er und ein 8er Kit, also 4 Module? Hast du diese auch RICHTIG verbaut, sodass du Dual Channel nutzen kannst?
Vielen Dank für den Tipp mit den schnellen Ram, das werde ich nachher überprüfen (schreibe über Laptop).
Richtig verbaut sind die Riegel. Ist zwar schon lange her, kann mich jedoch erinnern, dass ich dafür extra in die Anleitung des Boards geschaut habe :D

JMP $FCE2 schrieb:
Lohnt sich bei den absurden Preisen nicht. Einfach sich vom 4k-Hype lösen, und die Auflösung runterschalten. Das sollte bei 4k-Monitoren auch klappen, ohne nennenswerten Matsch zu produzieren.
4K Monitor wurde wegen Arbeit, nicht wegen Zocken oder Hype zugelegt.
Ich dachte immer, man solle in nativer Auflösung zocken, da wenn man zb. auf einen 4k Monitor WQHD einstellt, das Bild sehr schlecht wird. Das kann ich natürlich ausprobieren, danke 👍
Wäre denn auf Full HD (statt WQHD) runterschalten besser, da teilbar?

DJMadMax schrieb:
Bittesehr, alle Werte stammen aus meiner persönlichen Ermittlung, es wurden diverse Spieletitel in 1080p bei meist maximalen Details getestet:
Wow vielen Dank für die Bilder und den interessanten Beitrag.

---

Danke für eure Beiträge. Generell sehe ich ein Systemwechsel für mich dadurch noch weniger als Notwendigkeit an und eher als Luxus. Mich juckt es in den Fingern :D

Eine Überlegung wäre auf AM5 zu warten. Allerdings ist DDR5 (noch) nicht merklich schneller als DDR4 und teurer. Zum Start von AM5 werden die Preise bestimmt immer noch nicht auf DDR4 Niveau sein. Als weitere Neuigkeit wird PCIe 5.0 eingeführt. Das wird wahrscheinlich Jahre dauern, bis man effektiv einen Unterschied zu PCIe 4.0 merkt, oder?
 
  • Gefällt mir
Reaktionen: DJMadMax
DJMadMax schrieb:
Ich gebe dir insofern recht, dass man auf diese Weise gut das CPU-Limit ausloten kann, aber einen Mehrwert für den Anwender hat dieser Test leider nicht - das bemängel ich auch immer hier auf ComputerBase, wenn Spiele in 720p für den CPU-Test durchgebencht werden.

Der Test ist insofern interessant, dass man danach weiß, ob der CPU überhaupt in der Lage ist 60 fps (sofern angepeilt) zu liefern. Wenn er das nicht schafft, braucht man sich erstmal keine Gedanken über eine neue Grafikkarte machen.

VG 🙋‍♂️
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: h2f, Rios und DJMadMax
Ohne Zweifel hat die 1070 ihren Zenit überschritten.
Ohne Zweifel wäre der TE mit einer neuen CPU und dazu GPU gut beraten.

Und ohne Zweifel kann einer 1070er Beine gemacht werden, indem Auflösung, Details, FSR, IS, usw gedrosselt bzw. benutzt werden.

So gesehen macht ein CPU Upgrade alleine also auch noch Sinn. Denn die 2600k wiederum hat ihren Zenit schon x-fach überschritten relativ betrachtet.
 
  • Gefällt mir
Reaktionen: DaLexy, catch 22, Rios und eine weitere Person
Rios schrieb:
Ich dachte immer, man solle in nativer Auflösung zocken, da wenn man zb. auf einen 4k Monitor WQHD einstellt, das Bild sehr schlecht wird. Das kann ich natürlich ausprobieren, danke 👍

Da kann ich Lossless Scaling empfehlen, ist die 4,-€ auf jeden fall Wert.

Das Bild ist wesentlich besser beim hochskalieren als wenn man beim Monitor die native Auflösung reduziert. Nutze das um mit meiner RX480 ~60 FPS in auf dem WQHD-Monitor zu bekommen. (zB bei Witcher 3, Assassins Creed- Far Cry-Serie)

Full HD packt die Karte noch gut, 2560x1440 mit 60FPS bei oben genannten Spielen ist kaum drin, oder nur mit spürbaren Qualitätseinbußen.

Zum es juckt in den Fingern: Intel hat gerade was neues bei AMD kommt die AM5-Plattform. Wenn du bis nächstes Jahr warten kannst, wenn die Kinderkrankheiten beseitigt sind (sowohl Hardware, wie auch Software [zB Windows]) wirst du vermutlich glücklicher für das selbe Geld, das du jetzt investieren würdest.

Schau mal welche Probleme die ersten Ryzen-CPUs gemacht haben (Speicherkompatibilität, ...) oder Alder Lake jetzt noch hat (Spiele frieren ein/ruckeln bei aktivierten E-Cores, Sockel-Verbiegen).
 
  • Gefällt mir
Reaktionen: Rios
Rios schrieb:
Ich dachte immer, man solle in nativer Auflösung zocken, da wenn man zb. auf einen 4k Monitor WQHD einstellt, das Bild sehr schlecht wird.
Ja, das ist suboptimal. Du kannst im NVidia-Treiber aber custom resolutions einstellen, da wird dann nicht das Bild skaliert, sondern du bekommst je nach eingestellter Auflösung mehr oder weniger dicke schwarze Balken an den Rändern, dafür ist das Bild aber knackscharf.
Ich habe auch eine Zeitlang so gezockt, mich hat das trotzdem genervt, weswegen ich mir einen günstigen 1440p Monitor mit 144Hz und Sync gekauft habe: https://geizhals.de/hp-x27i-8gc08aa-a2236741.html?hloc=de
 
  • Gefällt mir
Reaktionen: Rios
Hier ein Vergleich eines i7 2600 mit einem i3 12100F:
 
Zurück
Oben