Hallo.
Da hier leider wirklich viel inhaltlich falscher oder unangebrachter Quatsch geschrieben wird, hier mal ein paar Klarstellungen, die im Interesse des TE liegen sollten:
a) Die AM4-Plattform bietet dem TE keinen nennenswerten Vorteil. Er spricht explizit von einer langen Nutzungsdauer. Bei seinem genannten Q6600 auf 3570K waren das 5-6 Jahre und der 3570K wird jetzt auch in etwa 6 Jahre alt.
Da mit der Plattform zu argumentieren, weil AM4 noch 2 Jahre unterstützt wird, hat für den TE absolut keine Relevanz. Soll er sich dann wenn es für ihn wieder Zeit zum Wechseln wird, eine 2-4 Jahre alte AM4-CPU holen? Also bitte...
b) Der TE spricht ausdrücklich davon, dass für ihn nur Gaming interessant ist. Keine Ahnung, wie man bei Intels drückender Gaming-Überlegenheit auf die Idee kommt, trotzdem wieder nach Ryzen zu schreien... Vllt ist c) daran schuld...
c) Der TE und einige der Verfasser der Antworten hier haben leider immernoch eine fundamental falsche Auffassung von Gaming-Benchmarks im CPU-Bereich. Ich hatte gehofft, dass das irgendwann mal aussterben würde, aber leider gibt es dort wohl keinen weitreichenden Fortschritt.
720p-Benchmarks mit fetten Grafikkarten haben die einzige Relevanz, die es in diesem Bereich überhaupt gibt.
Autovergleiche sind zwar unbeliebt, aber dieser hier trifft den Sachverhalt hervorragend:
Die Leistung einer CPU im Gaming-Bereich anhand von 1080p oder höher zu beurteilen, ist wie die Leistung eines Autos im Stadtverkehr zu beurteilen. Oder im Falle von UHD im Stau.
Bei Autos sieht jeder ein, dass das Blödsinn ist, wenn ich einen Smart und einen Porsche bezüglich ihrer Geschwindigkeit im Stadtverkehr vergleiche und mich dann wundere, dass das ja alles gar nichts aussagt, wenn ich dann auf die Autobahn oder Rennstrecke fahre.
Bei CPUs wird von Ahnungslosen an jeder Ecke danach gebrüllt, dass man doch unbedingt im Stadtverkehr vergleichen müsse. Das ist Unsinn.
JEDER Gaming-Benchmark entsteht durch das Messen der FPS über eine Sequenz. Eine Sequenz besteht aus beliebig vielen Subsequenzen. Viele Menschen denken leider immernoch, ein GPU-Limit wäre genau dann vorhanden, wenn in einem CPU-Test alle Balken gleich lang seien. Das stimmt aber einfach nicht. Wenn alle Balken gleich lang sind, dann heißt das, dass die zu berechnenden Inhalte über die gesamte Testsequenz, also auch alle Subsequenzen, zu einem entscheidend großen Anteil Berechnungen enthalten, welche die GPU übernimmt. Als Resultat hängen die FPS komplett davon ab, wie schnell die GPU diese verarbeiten kann.
Ist das nicht mehr der Fall, kommen die Subsequenzen ins Spiel. Es ist absolut überhaupt nicht ungewöhnlich, dass sich Subsequenzen bezüglich ihrer Last-Charakteristik untereinander stark unterscheiden. Framedrops z.B. sind oft Szenen, in denen diese Unterschiede besonders groß sind. Hier kann z.B. kurzzeitig die Last fast komplett auf die CPU oder den RAM gefallen sein.
Geht man nun vom 100%-GPU-Limit weg, dann heißt das aber nicht, dass das Ergebnis plötzlich repräsentativ für die CPU-Leistung sei. In der Regel bedeuten die Leistungsbalken, die nun Unterschiede zwischen den CPUs zeigen, nämlich zunächst einmal nur, dass nun Subsequenzen enthalten sind, in denen die CPU der limitierende Faktor ist. Wie viele das sind, ist ohne Weiteres nicht genau zu bestimmen.
Rechenbeispiel: CPU X zeigt 10% mehr Leistung als CPU Y.
Das kann z.B. bedeuten: In 10% der Subsequenzen ist die CPU der limitierende Faktor und hier ist CPU X 100% schneller. Oder aber die CPU ist zu 100% der limitierende Faktor und X ist 10% schneller. 50% Zeit, 20% Leistung... 66% Zeit, ~15% Leistung. All das ist möglich.
Ein Spiel für Benchmarks zu irgendwelchen fixen Verhältnissen von 50/50 o.Ä. zu zwingen, ist nicht möglich. Der Spiele-Code ist fix, die eingesetzte Hardware Variabel und damit lässt sich kein fixes Verhältnis zuverlässig anpeilen.
Daher sollte es an dieser Stelle dann offensichtlich sein, welches Ziel verfolgt werden muss, wenn man eine Aussage über die tatsächliche Leistung der CPU treffen möchte: Man wählt Einstellungen, in denen der Anteil der CPU-limitierten Subsequenzen so hoch wie nur irgendmöglich ist.
Um das so gut es geht zu erreichen, wählt man Einstellungen, die die Intensität der GPU-Berechnungen senken (aka niedrige Auflösung, niedrige Details), und eine Grafikkarte, mit der das GPU-Limit möglichst hoch liegt.
Hier ist es also völlig unsinnig, großartig zu überlegen, ob nun 33% mehr Kerne (6vs8) oder Threads (12vs16) vielleicht irgendwie in Zukunft irgendwelche Vorteile bringen würden, wenn man an anderer Stelle eine wissenschaftlich unsinnige Sichtweise der vorliegenden Resultate wählt, die einen dazu zwingt, bereits jetzt vorhandene Mehrleistung, die sich aber zu beachtlichen Teilen hinter dem GPU-Limit versteckt, komplett zu ignorieren.
An dieser Stelle kommt dann oft die Frage, welchen Mehrwert denn Gaming-Leistung habe, die bei realem Gaming kaum zu sehen sei.
Das ist tatsächlich aber wirklich einfach zu beantworten. Ein Mehrwert liegt darin, dass diese Leistung in anderen Spielen nutzbar sein kann und wird.
Das ist auch am CB-Performance-Rating leicht erkennbar, wenn man sich die Spiele einmal einzeln ansieht. In UHD sind alle Spiele sehr stark GPU-limitiert. In 1080p ist Tomb-Raider ein gutes Beispiel. Auch hier ist die GPU-limitierung noch relativ stark, sodass alle CPUs recht nah beieinander liegen. Geht man nun in Tomb Raider auf 720p herunter, stellen sich plötzlich ziemlich deutliche Performance-Unterschiede dar.
Sind diese Gegenstandslos, weil sie im nicht verwendeten 720p gemacht wurden? Im Gegenteil. Es stellt sich dasselbe Performancegefüge (mit etwas weniger deutlicher Ausprägung aufgrund des höheren Grades an GPU-Limitierung) in den meisten anderen Spielen auch in 1080p dar. Guckt man dann noch einmal nach oben zu UHD, finden sich mit Warhammer und Project Cars sogar einige Spiele, die diese in 720p entdeckte Mehrleistung selbst in 4K, noch auf den Bildschirm bringen.
Es ist also erneut offensichtlich, dass es Spiele mit unterschiedlichen Leistungscharakteristika gibt. Leistung, die in manchen Titeln in 1080p noch hinter der GPU-Limitierung versteckt bleibt und nur in 720p zu sehen ist, ist durchaus vorhanden und kann von anderen Spielen teilweise noch in 4K deutlich umgesetzt werden.
In diesem Fall hier liegt ein weiterer Mehrwert ganz einfach spätestens dann ganz offensichtlich auf der Hand, wenn der TE seine bereits angekündigte GPU-Aufrüstung durchführt. Die Mehrleistung wird dann abrufbar sein, sofern er in ~3 Jahren dann keine GPU kauft, die eine Leistung bietet, die bereits heute auf vergleichbarem Niveau limitiert.
d) Ein Intel 8700(K) ist hier die beste Wahl, sofern er budgetverträglich ist. Die Gaming-Mehrleistung ist bereits jetzt reichlich vorhanden, nur halt in 1080p-Benchmarks oft durch GPU-Limitierung geschmälert oder komplett versteckt. Mit einem Ryzen würde der TE im Gaming-Bereich auf jetzt bereits sichtbare Mehrleistung verzichten, die versteckte Mehrleistung ignorieren und dafür auf einen ungewissen zukünftigen Mehrkern-Bonus setzen, der einem 8-Kern-Ryzen selbst wenn er die rechnerischen ~33% Mehrleistung ergeben würde, höchstens auf ein vergleichbares Niveau mit einem 8700(K) verhelfen würde.
Und wenn man dann meint, die beim Intel versteckte Mehrleistung ignorieren zu müssen und trotzdem auf der GPU-limitierten Performance herumreiten zu müssen, dann sollte man sich an dieser Stelle noch vor Augen führen, dass dem GPU-Limit egal ist, ob CPU-Leistung durch Kerne oder Takt/IPC erreicht wird. Wenn ein Ryzen 8-Kerner jetzt theoretisch von ~33% Gaming-Mehrleistung profitieren würde, dann wäre es vermessen zu denken, dass das direkt in Gaming-Performance umzusetzen wäre. Dasselbe GPU-Limit, das jetzt den Intel netterweise in den 1080p-Werten nicht so weit davon ziehen lässt, würde dann den Ryzen genauso bremsen.