Test Gaming-Benchmarks: Ryzen 9 7950X und Ryzen 7 7700X vs. 5950X und 12900KS

@Taxxor

Man muss sicher nicht so einen Aufwand betreiben wie du es beschreibst, meine eher einfach "inoffiziell" als Referenz nebenbei z.B. nur in QHD mit einem 0815 System wo der Leser die Auswahl der Hardware der Redaktion einfach zu akzeptieren hat. Mit der Zeit und mehr CPU Test entsteht eine Referenzliste zur Einschätzung ja ganz von selbst. Das ist besser als Nichts und ohne Anspruch auf eine wissenschaftliche Arbeit. Letztendlich geht es um den Zweck und dafür würde es ausreichen wenn Einige Das so besser verstehen. Das würde einige unsinnige Fragen und teils abenteuerliche Empfehlungen im Forum vermutlich verringern. Aber vielleicht möchte man Das ja auch gerade nicht, k.A..

Auf der anderen Seite könnte sich Derjenige einfach wie auf den verlinkten Seiten auch selbst informieren und genug Lesestoff gibt es.
 
Taxxor schrieb:
Der Test soll die Performance der CPUs darstellen und ist keine Kaufberatung.
CPU-Performance in Spielen bei realitätsfremden Einstellungen zu messen ergibt einfach keinen Sinn.
Taxxor schrieb:
Was ist denn, wenn ich in 1440p Spiele, aber DLSS/FSR nutzen möchte? Dann rendere ich in 1080p oder sogar geringer und bin darauf angewiesen zu wissen, ab wann ich keinen nutzen mehr von einer schneller laufenden GPU habe.
Der Test wurde doch nicht bei 1080p durchgeführt. Und DLSS/FSR haben auch ihre Besonderheiten abhängig von dem Spiel, somit wäre auch hier eine allgemeine Pauschalisierung nicht möglich.
Taxxor schrieb:
Das gleiche, wenn ich nicht mit Ultra Settings spiele und somit die GPU mehr FPS liefern könnte, dann muss ich auch wissen, ab wann die CPU dicht macht.
Aber nicht bei 720p, hallo :-) Wenn ich Cybersporttitel wie CS:GO bei hohen FPS-Werten spielen möchte, dann nutze ich trotzdem eine höhere Bildschirmauflösung, auch bei niedrigen grafischen Einstellungen.
Taxxor schrieb:
Eine 3090 wäre mit einer schnellen CPU heute auch in 1080p bereits größtenteils im CPU Limit, 720p wird zur Sicherheit genutzt, damit es auch in jedem getesteten Spiel der Fall ist.
Warum dann nicht gleich bei 320p? Oder 120p? Nein, alles nur Kompromisslösungen. Ich verlange 1p! :-)
Noch mal, dieses künstlich erzeugtes CPU-Limit ist nahezu nutzlos für reale Anwendungsszenarios.
Taxxor schrieb:
Von 1080p aus braucht es ca 30-40% mehr GPU Performance, um die gleichen FPS auch in 1440p zu erreichen, das werden die nächsten Karten überbieten.
Der Test wurde bei 720p durchgeführt, nicht bei 1080p. Und ob das 30-40% sind oder mehr, ist vom Spiel und von Einstellungen abhängig. Daher habe ich als konservative Schätzung den Faktor 4 genommen, da in 1440p 4-mal mehr Pixel gerendert werden müssen als bei 720p.
Taxxor schrieb:
Tut mir leid, wenn dir die Kombinationsgabe dafür anscheinend fehlt, aber so schwierig ist es nicht.
Du musst einfach nur schauen, ob du mit deinem 1600X in deinen Spielen GPU limitiert bist. Ist das der Fall, bringt dir eine neue CPU nichts.
Nein, so einfach ist das doch nicht. Denn Ryzen 7xxx als Platform bringt selbst in GPU-Limit etwas mehr zur Waage als Ryzen 1xxx - RBAR, DDR5, PCIe 5.0, RJ45 2.5Gbit, usw. Mein heutiger PC hat nicht mal PCIe 4, damit bekomme ich automatisch etwas weniger Performance mit Karten wie RX 66xx und mein neues schnelles SSD-Laufwerk kann sich nicht voll entfalten.
Taxxor schrieb:
Ist es nicht der Fall, kannst du über die Auslastung deiner GPU in etwa abschätzen, wie viel Reserve sie noch bis zur Vollauslastung hat und damit auch, eine wie viel stärkere CPU sich für dich lohnt.
Dafür musst du aber natürlich wissen wie viel stärker die CPUs jeweils sein können als deine.
Sorry, das habe ich leider nicht genug klargemacht: ich suche mir keine Beratung im Forum dazu, welchen Prozessor ich nehmen sollte. Das habe ich für mich schon längst entschieden. Meine PC-Konfiguration habe ich lediglich als Beispiel gezogen. Primär wollte ich den 720p-Ansatz mit meinem Beitrag kritisieren.
Ergänzung ()

Taxxor schrieb:
Der Nachteil ist deutlich erhöhter Zeitaufwand.
Man hat den erhöhten Zeitaufwand genau jetzt, mit diesen nutzlosen und realitätsfremden 720p Tests.
Taxxor schrieb:
Um genau zu sein ein doppelter Zeitaufwand, da man ja alle CPUs nochmal testen muss.
Man muss nicht alles doppelt testen, wenn der Test von Anfang an realitätsnah ist.
Taxxor schrieb:
Und willst du dann nur ein spezielles System testen? Dann kommen die Anfragen rein warum denn ausgerechnet dieses und warum man nicht auch noch ein System getestet hat, welches näher am eigenen ist.
Will man mit 2 zusätzlichen GPUs testen wären wir dann schon beim dreifachen Zeitaufwand.
Das sind schon Detailfragen, welche für die Diskussion unwesentlich sind.
 
Zuletzt bearbeitet:
[wj] schrieb:
Der Test wurde doch nicht bei 1080p durchgeführt. Und DLSS/FSR haben auch ihre Besonderheiten abhängig von dem Spiel, somit wäre auch hier eine allgemeine Pauschalisierung nicht möglich.
Was überall gleich ist ist die verwendete Renderauflösung von DLSS/FSR, und die ist bei 1440p nun mal eben in der höchste Qualitätsstufe 960p und das bringt einem ~30% mehr FPS, mal 5% mehr, mal 5% weniger.

[wj] schrieb:
Aber nicht bei 720p, hallo :-)
Wann die CPU dicht macht ist hat nichts mit der Auflösung zu tun. Alles was zählt ist, dass sie nicht limitiert wird und das ist in 720p eben zumeist der Fall.
Wenn ich mit meiner GPU in 1440p100FPS habe und durch Reduzieren der Settings auf 144FPS kommen möchte, dann möchte ich wissen, ob meine CPU auch mehr als 144FPS schafft, damit ich im GPU Limit bleibe.
Wenn ich dann einen 1440p Test sehe, wo meine CPU sowie eine deutlich neuere CPU beide 130FPS erreichen, bringt mir das rein gar nichts außer, dass ich nun weiß, dass beide CPUs zu mind. 130FPS imstande sind.

Wenn ich dann aber die tatsächliche CPU Leistung sehe, die ich eben nur außerhalb des GPU Limits abbilden kann, und sehe, dass meine CPU 135FPS und die neuere CPU 160FPs schafft, dann weiß ich, dass ich für die 144FPS eine neuere CPU bräuchte.

[wj] schrieb:
Warum dann nicht gleich bei 320p? Oder 120p? Nein, alles nur Kompromisslösungen. Ich verlange 1p! :-)
Korrekt, wie der oft verlinkte PCGH Artikel auch schon beschreibt, am besten wären CPU Tests in 16x9, der kleinstmöglichen Auflösung mit gleichem Seitenverhältnis.
720p wird genutzt, weil es niedrigste Auflösung ist, die man in jedem Spiel einstellen kann, ohne extra dran rumwerkeln zu müssen. Und wenn 720p ausreicht um überall im CPU Limit zu sein, braucht man auch nicht niedriger gehen, da 320p hier keine anderen Ergebnisse liefern würde.

PCGH hat auch durchaus schon in Spielen wie Battlefield V beim CPU Test 720p mit Renderscale 50%, also effektiv 360p genutzt, weil selbst in 720p noch ein partielles GPU Limit vorlag.

[wj] schrieb:
Der Test wurde bei 720p durchgeführt, nicht bei 1080p. Und ob das 30-40% sind oder mehr, ist vom Spiel und von Einstellungen abhängig. Daher habe ich als konservative Schätzung den Faktor 4 genommen, da in 1440p 4-mal mehr Pixel gerendert werden müssen als bei 720p.
Wie gesagt, die verwendete GPU ist ja in 720p auch nicht ausgelastet, die Rechnung ginge nur auf wenn sie in 720p zu 100% ausgelastet wäre, dann könnte man damit rechnen, dass sie um Faktor x schneller sein muss um diese FPS in 1440p zu erreichen
Und dieser Faktor ist auch weit entfernt von 4x, nur weil es 4x so viele Pixel sind.
Dann würde z.B. der FSR Performance Mode, der ebenfalls die Pixelanzahl viertelt, auch die vierfache Leistung bringen, es ist meist nicht mal das doppelte.

[wj] schrieb:
Man hat den erhöhten Zeitaufwand genau jetzt, mit diesen nutzlosen und realitätsfremden 720p Tests.
Nein, man minimiert ihn, da man mit diesen Tests das einzig wichtige abbildet, woraus sich dann absolut jeder Leser in Kombination mit den GPU Tests seine Daten zusammenstellen kann.
Man bekommt hier das, was die CPUs maximal an FPS leisten können und drüben bei den GPU Tests bekommt man raus, was die GPUs in unterschiedlichen Auflösungen an FPS leisten können.
Somit hast du 2 Leistungsangaben wobei die niedrigere entscheidet, welche Performance du mit der Kombination haben wirst.

CPU schafft 100 fps in 720p und GPU schafft 80 FPS in 1440p? Du wirst mit dieser Kombi 80FPS in 1440p haben und im GPU Limit sein und weißt ebenso, dass du noch ~20FPS an Reserven hast.

CPU schafft 80 fps in 720p und GPU schafft 100 FPS in 1440p? Du wirst mit dieser Kombi 80FPS in 1440p haben und im CPU Limit sein und weißt, dass du eine stärkere CPU brauchst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS, iron-man, Smartbomb und 2 andere
Das ist ein Kampf gegen Windmühlen. @[wj] will es entweder nicht verstehen, oder kann es nicht verstehen.
Bei beidem machts mMn keinen Sinn die Tastatur weiter abzunutzen....
 
  • Gefällt mir
Reaktionen: Pro_Bro, LukS, iron-man und 2 andere
[wj] schrieb:
CPU-Performance in Spielen bei realitätsfremden Einstellungen zu messen ergibt einfach keinen Sinn.

Es spielt doch überhaupt keine Rolle, ob das realitätsfremd ist, oder nicht. Wenn man die Leistung der CPUs vergleichen möchte, dann kann das nur außerhalb des GPU Limits passieren. Ansonsten kann man sich den Test sparen.

Mir unbegreiflich, wieso diese Diskussion immer wieder aufkeimt. Grafikkarten testet man doch auch nicht im CPU Limit, ich will ja sehen, was die GPU maximal bringt?!

Für Leute, die das nicht begreifen, gibt es im Netz auch genug Tests, die auch in höheren Auflösungen testen. Da sieht man dann eben, was die GPU leistet.
 
  • Gefällt mir
Reaktionen: LukS, Smartbomb, Leeway und eine weitere Person
Rockstar85 schrieb:
Damit sollte Intel absolut keine Probleme haben. Weder bei Gaming noch in Anwendungen wird Intel mit RaptorLake hinten liegen. Intel muss nur 5 bis 10% bei Gaming drauflegen.
Ergänzung ()

[wj] schrieb:
Streng genommen, auch 3090 Ti für den Test zu nehmen ist schon am Rande des Nützlichen, da solche Karten nur von einer winzigen Anzahl der Leute gekauft werden.
Wer definiert was nützlich ist?
Am nützlichsten für alle ist die Leistung der GPU und die der CPU zu messen, damit man die Werte übereinander legen kann. Für GPU Messungen schaust du nen GPU Test.

[wj] schrieb:
Aber das wäre das ganz reale Ergebnis, welches ich für meine Entscheidung "kaufen oder nicht kaufen" ziehen könnte.
Jeder hat eine andere GPU und wählt unterschiedliche Settings. Macht gar keinen Sinn.
[wj] schrieb:
Zum Glück gibt es andere Tester. So sehe ich z.B. bei anandtech, dass in vielen Spielen bei realistischeren Einstellungen (4K mit 2080 Ti) den Unterschied sehr klein ist.
Die testen nur so, weil die Leser nicht fähig sind abstrakt zu denken und glauben die CPU wäre dafür zuständig die Pixel zu berechnen.
[wj] schrieb:
Auch einen wunderschönen realitätsnahen Vergleich bei verschiedenen Auflösungen mit einer Radeon RX 5700 XT gibt es bei GameStar und daraus kann ich wirklich viel lernen.
Was soll man denn daraus lernen?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LukS, Smartbomb, iron-man und eine weitere Person
Taxxor schrieb:
Was überall gleich ist ist die verwendete Renderauflösung von DLSS/FSR, und die ist bei 1440p nun mal eben in der höchste Qualitätsstufe 960p und das bringt einem ~30% mehr FPS, mal 5% mehr, mal 5% weniger.


Wann die CPU dicht macht ist hat nichts mit der Auflösung zu tun. Alles was zählt ist, dass sie nicht limitiert wird und das ist in 720p eben zumeist der Fall.
Wenn ich mit meiner GPU in 1440p100FPS habe und durch Reduzieren der Settings auf 144FPS kommen möchte, dann möchte ich wissen, ob meine CPU auch mehr als 144FPS schafft, damit ich im GPU Limit bleibe.
Wenn ich dann einen 1440p Test sehe, wo meine CPU sowie eine deutlich neuere CPU beide 130FPS erreichen, bringt mir das rein gar nichts außer, dass ich nun weiß, dass beide CPUs zu mind. 130FPS imstande sind.

Wenn ich dann aber die tatsächliche CPU Leistung sehe, die ich eben nur außerhalb des GPU Limits abbilden kann, und sehe, dass meine CPU 135FPS und die neuere CPU 160FPs schafft, dann weiß ich, dass ich für die 144FPS eine neuere CPU bräuchte.


Korrekt, wie der oft verlinkte PCGH Artikel auch schon beschreibt, am besten wären CPU Tests in 16x9, der kleinstmöglichen Auflösung mit gleichem Seitenverhältnis.
720p wird genutzt, weil es niedrigste Auflösung ist, die man in jedem Spiel einstellen kann, ohne extra dran rumwerkeln zu müssen. Und wenn 720p ausreicht um überall im CPU Limit zu sein, braucht man auch nicht niedriger gehen, da 320p hier keine anderen Ergebnisse liefern würde.

PCGH hat auch durchaus schon in Spielen wie Battlefield V beim CPU Test 720p mit Renderscale 50%, also effektiv 360p genutzt, weil selbst in 720p noch ein partielles GPU Limit vorlag.


Wie gesagt, die verwendete GPU ist ja in 720p auch nicht ausgelastet, die Rechnung ginge nur auf wenn sie in 720p zu 100% ausgelastet wäre, dann könnte man damit rechnen, dass sie um Faktor x schneller sein muss um diese FPS in 1440p zu erreichen
Und dieser Faktor ist auch weit entfernt von 4x, nur weil es 4x so viele Pixel sind.
Dann würde z.B. der FSR Performance Mode, der ebenfalls die Pixelanzahl viertelt, auch die vierfache Leistung bringen, es ist meist nicht mal das doppelte.


Nein, man minimiert ihn, da man mit diesen Tests das einzig wichtige abbildet, woraus sich dann absolut jeder Leser in Kombination mit den GPU Tests seine Daten zusammenstellen kann.
Man bekommt hier das, was die CPUs maximal an FPS leisten können und drüben bei den GPU Tests bekommt man raus, was die GPUs in unterschiedlichen Auflösungen an FPS leisten können.
Somit hast du 2 Leistungsangaben wobei die niedrigere entscheidet, welche Performance du mit der Kombination haben wirst.

CPU schafft 100 fps in 720p und GPU schafft 80 FPS in 1440p? Du wirst mit dieser Kombi 80FPS in 1440p haben und im GPU Limit sein und weißt ebenso, dass du noch ~20FPS an Reserven hast.

CPU schafft 80 fps in 720p und GPU schafft 100 FPS in 1440p? Du wirst mit dieser Kombi 80FPS in 1440p haben und im CPU Limit sein und weißt, dass du eine stärkere CPU brauchst.
Ich möchte nicht im Einzelnen alles beantworten, da du lediglich die Theorie beschreibst, welche nur dann zu sehen wäre, wenn alle Variablen konstant blieben. Die Praxis ist aber eine andere Sache. Denn, wie ich schon geschrieben habe, in kommenden Jahren werden neue Einflussfaktoren die Karten sowieso neu vermischen: neue Spiele, neue Frameworks, neue Technologien, neue Treiber, neue Anforderungen an Prozessoren und und und.
Hier ein Beispiel aus zwei Tests von ComputerBase selbst:
In 2017 laut dem 720p-Test lag der Unterschied zwischen i5-7600K und i7-7700K bei 8%.
In 2020 liegt er schon bei 20% (4K) bzw. 25% (FullHD), vermutlich weil 4 Cores für modernere Spiele nicht mehr ausreichen. Könnte man das mit 720p-Tests vorhersagen? Nein, konnte man nicht. Daher sage ich, dass sie nutzlos sind.
 
[wj] schrieb:
Hier ein Beispiel aus zwei Tests von ComputerBase selbst:
In 2017 laut dem 720p-Test lag der Unterschied zwischen i5-7600K und i7-7700K bei 8%.
In 2020 liegt er schon bei 20% (4K) bzw. 25% (FullHD), vermutlich weil 4 Cores für modernere Spiele nicht mehr ausreichen. Könnte man das mit 720p-Tests vorhersagen? Nein, konnte man nicht. Daher sage ich, dass sie nutzlos sind.

Dieses Szenario hat als weitere Variable ja auch die unterschiedliche Threadzahl, die man natürlich auch beachten muss fürdie Zukunft. 2017 war schon abzusehen, dass es für CPUs mit nur 4 Threads in zukunft eng werden könnte, eben weil der abstand zwischen den 4C/4T und den 4C/8T CPUs über die Jahre langsam größer wurde.

So eine Zeit haben wir aber aktuell nicht, wir befinden uns aber aktuell einen Monat vor dem Release neuer GPUs, die die Performance um 50-100% erhöhen werden. Welche neuen Frameworks, Engines, Anforderungen etc erwartest du denn bis November?
Und auch gesehen auf die nächsten 3-4 Jahre wird sich nichts ändern, solange du auch vergleichbare CPUs vergleichst, also z.B. den 1600X mit dem 7600X.

Und über einen noch längeren Zeitraum kann man auch schon heute vorhersagen, dass eine CPU mit 8 Kernen ihren Abstand gegenüber einer CPU mit 6 Kernen ausbauen wird, wenn du also heute siehst, dass ein neuer 6 Kerner 10% schneller ist als der vorherige 8 Kerner und der neue Kerner 15% schneller ist, dann ist es, wenn man die CPU lange nutzen möchte, schlauer den neuen 8 Kerner zu nehmen, da die 5% Abstand zum neuen 6 Kerner nur größer aber nicht kleiner werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, LukS und Ragnarök88
@Taxxor : Bei mir hat es auch etwas gedauert, den Nutzen von 720p-Tests einzusehen, wenn man die Rohleistung von Prozessoren messen möchte. Ich glaube dennoch, dass die Aussagekraft dieser Tests sehr begrenzt ist. Der Punkt ist doch: Es gibt hier genug User, die ihre CPU seit Ryzen 1xxx, 3xxx oder Intels fünf bis sechs Jahre alten Cores nicht mehr aufgerüstet haben. Teilweise werkeln auch noch Haswells unter den Hauben. Ein Grund dafür ist, dass ~90% der Spiele nichts von der getesteten Mehrleistung brauchen oder es eine reduzierte Einstellung mit CPU-Einfluss dann eben auch tut.
Deshalb ist die Anmerkung von @[wj] für mich durchaus plausibel, dass die gemessenen Mehrleistungen sich aus bekannten oder unbekannten Gründen in einigen Jahren relativieren können. Das macht den Test nicht obsolet - es gibt ja auch keine wirkliche Alternative zu den 720p-Tests -, aber man sollte es bedenken, wenn man seine CPU für eine imaginäre "20fps-Reserve" aufrüsten möchte.
 
  • Gefällt mir
Reaktionen: [wj]
[wj] schrieb:
Ich finde es sehr schade, dass den ansonsten sehr schönen und aufwendigen Test bei sinnlosen 720p durchgeführt wurde. So vergrößert man künstlich die Unterschiede zwischen Prozessoren und zieht daher Fazite, welche mit Realität wenig zu tun haben.
Du möchtest halt nur EINEN Test sehen, eine Kombination aus CPU, RAM, GPU, OS und Programmen (inkl Spiele).
Das ist ok.
Aber wenn ich NUR die CPU testen will, MUSS ich alle anderen Einflussfaktoren auf das Gesamtergebnis eines Tests so gut wie es geht minimieren:
Et voila, die maximalen fps die die CPU in diesem Spiel bringen kann.
Das ist die absolute Obergrenze an erreichbaren fps, denn die CPU füttert die GPU mit Daten.

So, jetzt noch schauen was die Grafikkarte könnte, hätte man eine unendlich schnelle CPU (angenähert durch die schnellste verdügbare).
Et voila, die maximalen fps die die GPU in diesem Spiel bei diesen Settings bringen kann.

Jetzt hast du 2 Werte für maximal mögliche fps: die niedrigere entscheidet.

Jedes "reale" System liegt irgendwo dazwischen wie du bemerkt hast. Unendliche Kombinationen kann man aber nicht testen.
Also du kennst deine Hardware, damit DEINE max CPU fps laut Tests, deibe max GPU fps laut tests und deine fps die du wirklich gerade hast (Bei deinem Spiel).

Schaust du dir die Zahlen an, kannst du erkennen, welches Upgrade (cpu, gpu) dir mehr bringt bzw was limitieren wird. Mit ein bisserl Unschärfe, da das Restsystem aus RAM, Mainboard, Virenscanner und anderer Software bzw Treibern ja auch anders ist bzw sich ändert, genau wie der Patch Stand des Spiels.

Also, du kannst jetzt genauestens nachmessen bei deinem Spiel in welcher Szene was genau linitiert, oder du wählst den schnellen und einfachen Weg und guckst nach den CPU fps und den GPU fps für dein Spiel im Test.
Das wird genau genug sein.

Du hättest gerne nur 1 Diagramm und dann noch mit genau deinen Einstellungen?
Schön, aber alle Kombis dieser Welt kann und wird dir niemand testen.
Außerdem: braucht man auch nicht, denn aus den Tests zu CPU max fps und GPU max fps und deinen fps siehst du sofort, ob ein cpu oder gpu upgrade mehr bringen wird und beim Wechsel von nur einer Komponente was du maximal verbauen kannst bis eh wieder die andere Komponente limitiert.

Vl tust du die mit meiner Erklärung etwas leichter, obwohl der Sachverhalt wie ich finde bereits sehr gut erklärt wurde.

So billig, 1 Diagramm und bitte ja ne mittlere Auflösung, gibts halt nicht bzw ist Murks!
Ich kann den Wunsch danach verstehen, aber dann müssten die Leute verstehen, was ein CPU- und was ein GPU Limit bedeutet und nicht einfach Wischi Waschi nach Gefühl und Sympatie mal CPU oder die Graka upgraden obwohl die andere Komponente deutlich früher limitiert und man daher nur Geld verschwendet hätte.

Wer das Geld hat aber keine Zeit oder Lust in 2 Diagramme zu schauen, kauft einfach das Schnellste was es gibt und gut.
Ist ja auch ok.
Absonsten: Lesen und denken hilft! :)
 
  • Gefällt mir
Reaktionen: Rockstar85 und Ragnarök88
Taxxor schrieb:
Dieses Szenario hat als weitere Variable ja auch die unterschiedliche Threadzahl, die man natürlich auch beachten muss für die Zukunft.
Man kann das nicht wirklich beachten, da man die Zukunft nicht kennt. Man kann höchstens nachdenken und spekulieren.
Taxxor schrieb:
2017 war schon abzusehen, dass es für CPUs mit nur 4 Threads in zukunft eng werden könnte, eben weil der abstand zwischen den 4C/4T und den 4C/8T CPUs über die Jahre langsam größer wurde.
Das wissen wir heute. Damals, in 2017, war das alles noch mehr oder weniger Zukunftsmusik mit ungewissem Ausmaß und auch im Test keine Erwähnung gefunden. Wenn ich in 2017 mir einen neuen PC mit Fokus auf Spiele baute, würde ich laut dem Test eher den billigeren i5 nehmen. 3 Jahre später könnte das zu Problem werden.
Taxxor schrieb:
So eine Zeit haben wir aber aktuell nicht, wir befinden uns aber aktuell einen Monat vor dem Release neuer GPUs, die die Performance um 50-10% erhöhen werden. Welche neuen Frameworks, Engines, Anforderungen etc erwartest du denn bis November?
Wieso ist November hier plötzlich zu einem Stichtag geworden? Wenn ich ein PC heute kaufe/upgrade (und dafür diesen Prozessor-Test lese), dann tausche ich meine neue GraKa nicht schon in einem Monat aus, ganz davon zu sprechen, dass es garantiert keine überteuerte 3090 Ti wird, sondern eher ein mittleres Modell wie RTX 3060/3070 oder RX 6xxx.
Taxxor schrieb:
Und auch gesehen auf die nächsten 3-4 Jahre wird sich nichts ändern, solange du auch vergleichbare CPUs vergleichst, also z.B. den 1600X mit dem 7600X.
Doch, Ryzen 7xxx bringt im Vergleich zu Ryzen 1xxx schon heute wesentliche Änderungen als Plattform mit: RBAR, DDR5, PCIe 5.0 usw. Das heißt, selbst wenn ich einen hypothetischen Ryzen 7xxx kaufe, welchen an sich genauso schnell ist wie meinen alten Ryzen 1600X, auch dann gewinne ich schon an FPS, da viele Spiele zumindest von RBAR profitieren.
Taxxor schrieb:
Und über einen noch längeren Zeitraum kann man auch schon heute vorhersagen, dass eine CPU mit 8 Kernen ihren Abstand gegenüber einer CPU mit 6 Kernen ausbauen wird, wenn du also heute siehst, dass ein neuer 6 Kerner 10% schneller ist als der vorherige 8 Kerner und der neue Kerner 15% schneller ist, dann ist es, wenn man die CPU lange nutzen möchte, schlauer den neuen 8 Kerner zu nehmen, da die 5% Abstand zum neuen 6 Kerner nur größer aber nicht kleiner werden können.
Wenn ich etwas gelernt habe in 20+ Jahren, dass ich mit Hardware rumspiele, dann ist es Folgendes: kaufe nie etwas für die Zukunft, sondern nur für deine tagesaktuelle Bedürfnisse, denn die Gegebenheiten ändern sich u.U. sehr schnell und in unvorhersehbarer Weise.
 
[wj] schrieb:
Das wissen wir heute. Damals, in 2017, war das alles noch mehr oder weniger Zukunftsmusik mit ungewissem Ausmaß
Es waren eben schon 8% Unterschied, bzw die anderen CPUs betrachtet, 2500K vs 2600K und 4690K vs 4790K ebenfalls schon 5%, 2015 gab es hier überhaupt kein Unterschied, das sollte die Richtung für 2019 aufgezeigt haben.

[wj] schrieb:
Wieso ist November hier plötzlich zu einem Stichtag geworden? Wenn ich ein PC heute kaufe/upgrade (und dafür diesen Prozessor-Test lese), dann tausche ich meine neue GraKa nicht schon in einem Monat aus
Warum nicht heute eine CPU und nächsten Monat eine GPU kaufen? Wer sich hier CPU Tests anschaut ist zu 99% Selbstbauer und wird dementsprechend auch meist die Komponenten nach und nach wechseln.

Und wie gesagt, wären diese CPUs hier eben im November erschienen, würdest du von 720p bis 1440p die nahezu gleichen Abstände sehen, weil dann eine stärkere GPU verwendet worden wäre und man bis über 1080p hinaus im CPU Limit läge.
Wäre der Test aber heute in 1440p gemacht worden, sind die Daten nutzlos für alle die sich nächsten Monat ne neue GPU kaufen und man müsste alle CPU Tests nochmal wiederholen.

[wj] schrieb:
Doch, Ryzen 7xxx bringt im Vergleich zu Ryzen 1xxx schon heute wesentliche Änderungen als Plattform mit: RBAR, DDR5, PCIe 5.0 usw. Das heißt, selbst wenn ich einen hypothetischen Ryzen 7xxx kaufe, welchen an sich genauso schnell ist wie meinen alten Ryzen 1600X, auch dann gewinne ich schon an FPS, da viele Spiele zumindest von RBAR profitieren.
DDR5 spiegelt sich auch im Test wieder, den du heute lesen kannst und der Abstand wird in zukunft mit schnellerem RAM nur noch größer, RBAR ist ein Thema für die GPU Tests, das macht die CPU nicht schneller und bis PCIe 5.0 einen Vorteil bringt, hat man die CPU und GPU schon 2mal getauscht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS und Smartbomb
[wj] schrieb:
Könnte man das mit 720p-Tests vorhersagen? Nein, konnte man nicht. Daher sage ich, dass sie nutzlos sind.
Dass ein 4 Kerner ohne HT schon 2017 am Limit war, konnte man auch ohne jeden Test wissen, Frametimes, hier und da Schluckauf bei Hintergrundlasten. Seit 2010 gibt es 6 Kerner mit HT, die reichen bis heute spielend. Dein Fallbeispiel ist widersinnig, weil Spiele nicht mal großartig mehr brauchen als 4 logische HT Threads und 4 physische mit 4 Cores. Aber am frühesten fällt deine benannte Problematik in 720p auf. Was eine CPU in 720p bringt, bringt siebübrigens auch in 8K, gleicher Bildausschnitt vorausgesetzt. 16:9.

Die CPU ist in jeder Auflösung innerhalb 16:9 gleich schnell. Wieso sollte ich die Leistung des Prozessors durch die falsche Testmethodik unterschlagen? Spielt doch nicht jeder mit max Settings, andere mit DLSS, FSR und Co, was die berechnete Auflösung reduziert oder man wechselt die GPU... Du musst verstehen, dass eine CPU die Auflösung nicht juckt. Die ist für andere Sachen wie Physik, Spielmechanik, drawcalls , batches , npcs usw zuständig.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LukS und Smartbomb
An sich finde ich den Leistungszuwachs solide.. aber gemessen daran, dass ich dafür auch mein Brett wechseln müsste, ergibt das für mich (rein aufs Gaming bezogen) wenig Sinn.
Mein B450M Board unterstützt sogar den 5800X3D, welchen ich einem 7700X wohl vorziehen würde, eben auch wegen des nicht notwendigen wechsels des Bretts.

Schade, dass man bei Zen 4 nicht direkt in jede CPU die Cache Technik aus dem 5800X3D eingesetzt hat.
Der 5800X3D ist gute 1 Ghz langsamer getaktet, bringt mit seinem Cache aber einen großen Vorteil mit sich.
Für mich wäre rein aufs Gaming bezogen der 5800X3D wohl die erste Wahl..
 
Also wenn jemand hier noch daran glaubt, dass Intel iwie noch hinterher kommt, der glaubt auch an den Weihnachtsmann....

Denn ganz ehrlich.. Intel kommt gerade mal so hinterher mit der Brechstangen-Lösung :D Und dann bekommt man noch solche Überraschungen wie Microcode-Updates die dann auf einmal die Performance verringern :D Und das machen die schon seit vielen CPU-Generationen..

Zudem empfinde ich diese Tests mit Intel-CPUs per LN2 auf 8.2Ghz eher komplett sinnfrei. Das sind für mich Leute die keinerlei andere Sorgen haben und nur reinen Unfug präsentieren. Kein User zuhause wird LN2 anwenden :D
 
  • Gefällt mir
Reaktionen: Smartbomb
[wj] schrieb:
CPU-Performance in Spielen bei realitätsfremden Einstellungen zu messen ergibt einfach keinen Sinn.
Du misst also CPUs im GPU Limit.. Macht Sinn (Nicht!)

https://www.pcgameshardware.de/CPU-...essoren-in-720p-Leserbrief-der-Woche-1105586/
Daran hat sich bis heute nichts geändert.. Soo schwer ist das nicht
Dein 1600X ist so gnadenlos überfordert, und das zeigen auch die Tests.. Ach und auch wenn ich Gamestar Abonnent bin, die können keine CPU Tests..

Anandtech testet auch, oh Wunder, in 720p

https://www.anandtech.com/show/1758...ryzen-5-7600x-review-retaking-the-high-end/17
 
  • Gefällt mir
Reaktionen: LukS, Verak Drezzt, Taxxor und 3 andere
  • Gefällt mir
Reaktionen: LukS, Ragnarök88, Verak Drezzt und 3 andere
Da ist dann der erste "Review" eines B650E, welche ja heute Launchen.
 
mal ne Frage:

In Games sind beide neuen AMD CPU´s in etwa gleich schnell, im Diagramm für den Gaming-Verbrauch hingegen braucht der 7950 deutlich mehr. Heißt das im Umkehrschluss, dass ich für die gleiche Gaming Performance in fps mit dem "Dicken" immer mehr Leistung verbrate? Da wäre rein für einen Gaming-PC ja der 7700 DIE Wahl, oder?
Ich hätte gedacht oder gehofft, dass es die zusätzlichen Kerne "umsonst" gibt (also verbrauchstechnisch), wenn man sie nicht braucht, aber offensichtlich wird die Last so ungünstig umverteilt, dass man mehr Strom für die gleichen fps braucht :(

War das bei den 5000 ern schon genau so? Den 3D mal außen vor gelassen.
 
Naja..es müssen 2 Die's statt einem versorgt werden und auch die doppelte anzahl an kernen und cache.
Das geht natürlich nicht ohne einen gewissen Mehrverbrauch.
 
  • Gefällt mir
Reaktionen: Smartbomb und LukS
Zurück
Oben