Bericht Prozessor-Rangliste 2024: CPU-Vergleich mit AMD Ryzen 7000X3D und 14. Gen. Intel Core

axi schrieb:
aber im Ernst, ist ein Spiele PC jetzt ein PC mit dem ich Spiele spielen kann die Spaß machen oder definieren wir das mittlerweile nur über Benchmark Zahlen und wenn die Leistung unter einer willkürlich gesetzten Linie ist kann man nicht mehr Spielen?
Das ist alles sehr subjektiv, aber ja, Forza Horizon 5 macht unter full hd mit High Settings definitiv weniger Spaß als auf 3440x1440 mit Ultra+Extreme Settings und 100 oder 120 fps.

Death Stranding auf 24 Zoll und High Settings ist nice, aber auf 4K mit Ultrasettings und doppelten fps ein pures Erlebnis.

Ich habe eine Zeitlang im Außendienst The Division 2 auf einem Notebook gespielt mit 60 fps max auf full hd ....vs Heimkiste mit 120 fps Ultrasettings und UWQHD:

Mein Gott war das miserabel :D 60 fps (und full hd) gehen für mich einfach in vielen Games nicht mehr, es sei denn das ist Civilization z.B.
Abwer auch da würde ich mir niemals mehr 1080p oder 27 ZOll WQHD antun, man sieht viel weniger.

Das Spielerlebnis (im Schnitt, das hängt auch vom Genre ab) ist in vielen Titeln dank höherer fps Korridore nicht nur weicher und durch möglichst maximale Grafiksettings nicht nur hübscher, sondern einfach das Quentchen besser.

Niemals hat mir jemand gesagt, dass dasselbe Spiel auf der langsameren SPielekiste mit kleinerer Auflösung mit weniger Settings genausoviel Spaß macht.
Das ist für mich pure Dissonanz oder Selbstlüge, wenn man den Unterschied kennt.

Also ja, für Dich (und auch andere, die ich privat kenne!) ist ein SPiele PC entweder minimales Mittel zum Zweck wie bei Dir oder für Enthusiasten wie mich (und auch da viele andere, die ich privat kenne) ein Instrument und Hobby, tolle Spiele mit noch besserer Immersion zu erleben durch das audiovisuelle Maximum im Setting.

Beide Seiten des Spektrums haben Ihre Berechtigung.
Dir reicht die 100 Euro CPU, meine beginnt dann erst so ab 600 Euro.

Mit einer 100 Euro CPU ist ein BF2042 in UWQHD und max Settings auf 64 Spieler Servern und 100+ fps einfach nicht machbar.
Quasi "technisch unmöglich". Ein 100 Euro CPU ist die Handremse jeder potenten neuen GPU.

Das ist das Tolle am PC Gaming, man kann sich genau "DA" einslotten, was man persönlich im Setup für wünschenswert hält. :)
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR, Mcr-King, Volvo480 und 2 andere
fehlt da der 7950x3d nicht bei den „Performancerating, RTX 3090 Ti“ Werten?
 
  • Gefällt mir
Reaktionen: Mcr-King
@Laphonso da bin ich ganz bei dir, und so wie du es schreibst ist es stimmig. Im Artikel steht es für mich halt so als wäre Spielen kaum möglich, was halt suggeriert, dass man unbedingt gewisse Hardware braucht bevor man Spaß haben kann.
 
  • Gefällt mir
Reaktionen: Laphonso
axi schrieb:
@Laphonso da bin ich ganz bei dir, und so wie du es schreibst ist es stimmig. Im Artikel steht es für mich halt so als wäre Spielen kaum möglich, was halt suggeriert, dass man unbedingt gewisse Hardware braucht bevor man Spaß haben kann.
Ja, da hast Du recht, so pauschal ist das falsch; und viele nutzen Ihre casual Daddelkisten wirklich auch für ältere Games, die sich nicht durch die CPU und GPU fressen wie die super optimierten "AAA" Games.

Eine Kollege von mir schiebt gerne noch alte Siedler, Anno, Civ und Company of Heroes Sessions mit seiner 970 und einem 2600K. Läuft alles. Sogar das letzte Deus Ex Mankind Divided.


Da ist eine 100 Euro CPU definitiv ein deutliches Upgrade (mal die Plattform mit Board und neuem DDR RAM isoliert nicht berechnet)
 
  • Gefällt mir
Reaktionen: axi
Sorry für die blöde Frage aber ich brauche kurz eure Hilfe.
Benötige eine CPU mit integrierter gpu aber nicht zum spielen nur um ein Bild auszugeben.
Wie vergleiche ich da am besten bezüglich Leistung und Stromverbrauch?

Z. B. i3, i5 und 5600g
 
Zum Stromverbrauch der CPU‘s:
Gibts da einen Vergleich überhaupt einen längeren Zeitraum, als nur im Benchmark?

Zum Beispiel der Stromverbrauch über eine Woche bei täglichem Betrieb?
Ich schätze mal, dass sich da „der hohe“ Verbrauch der Intel-CPU reaktivieren wird, da kaum ein Rechner immer unter Last läuft. Durch den geringen Leerlauf-Verbrauch könnte sich das Blatt sogar wenden.

Als Arbeitsrechner wird die meiste Zeit geringe bis keine Last anliegen.
 
bensen schrieb:
Warum sollte man neue CPUs mit alten GPUs testen?
Weil grade die RTX30er sehr stark CPU abhängig sind was volle Leistung betrifft.
 
mcsteph schrieb:


Wir nehmen mal diesen Vergleich (Multicore Leistungsrating):

1678393342194.png


Da benötigt der Ryzen 9 im Leerlauf 75W - das sind schon mal 19W mehr:

1678393504316.png

1678393542258.png
1678393562488.png


Bei Teillast benötigt der 7900 auch 19W mehr:
1678393720567.png

1678393613050.png

1678393632204.png


Also Fazit:
Im realen (Alltags-) Betrieb ist doch RPL effizienter unterwegs als der 7900. Und gleich effizent wie der 5950.

Bei Vollast kann RPL mehr Leistung aufnehmen, aber in welchem Zeitrahmen (außer Spiele) ist das der Fall?

Somit teile ich nicht die Meinung, dass RPL ein Problem mit der Effizienz hat, im Gegenteil.
 

Anhänge

  • 1678393593416.png
    1678393593416.png
    4,7 KB · Aufrufe: 126
  • Gefällt mir
Reaktionen: joxe und Klever
CM286 schrieb:
Wir nehmen mal diesen Vergleich (Multicore Leistungsrating):

Anhang anzeigen 1334155

Da benötigt der Ryzen 9 im Leerlauf 75W - das sind schon mal 19W mehr:

Anhang anzeigen 1334156
Anhang anzeigen 1334157Anhang anzeigen 1334158

Bei Teillast benötigt der 7900 auch 19W mehr:
Anhang anzeigen 1334162
Anhang anzeigen 1334160
Anhang anzeigen 1334161

Also Fazit:
Im realen (Alltags-) Betrieb ist doch RPL effizienter unterwegs als der 7900. Und gleich effizent wie der 5950.

Bei Vollast kann RPL mehr Leistung aufnehmen, aber in welchem Zeitrahmen (außer Spiele) ist das der Fall?

Somit teile ich nicht die Meinung, dass RPL ein Problem mit der Effizienz hat, im Gegenteil.
Guten Morgen, es geht um den 7950x3d. Aber man kann sich alles so verdrehen bis es passt. 🤦‍♂️
 
  • Gefällt mir
Reaktionen: iron_monkey
Es geht um die CPU-Rangliste. Und einleitend steht dort:

"Das heißt also nicht, dass Intels CPUs komplett abgeschlagen sind. In einem Punkt sind sie es aber doch: Energiebedarf. Hier ist AMDs Lösung mitunter doppelt so effizient."
 
CM286 schrieb:
Also Fazit:
Im realen (Alltags-) Betrieb ist doch RPL effizienter unterwegs als der 7900. Und gleich effizent wie der 5950.

Es geht ja um mehr als nur den Leerlauf.

Intel ist auch wesentlich effizienter unter Teillast. zB: Video schauen, surfen, ...

Der Taktet nur so hoch wie er muss und bleibt sparsam, während AMD "in die Vollen geht", oder Leerlauf.

Mal aus dem Gedächtnis:
Familie mit 2 PCs, Sohn mit 11700k (als Stromschlucker verschrien) Vater mit 5800x (das Sparbrötchen) mit vergleichbarer Konfiguration. Da wurde über Monate der Verbrauch der jeweiligen Systeme gemessen, und protokolliert. Ergebnis: Der 11700er-PC war sparsamer als der des Vaters, obwohl der Sohn seinen noch zum Daddeln genutzt hat.

Fazit: Der hohe Leerlauf- und Teillastverbrauch hat das 5800xer-System einen monatl. Mehrverbrauch von bis zu 20% beschert, und der Vater hat den Rechner mit dem Sohn getauscht um das zu optimieren.

PS: Funktioniert natürlich nicht bei Energiesparplan "Volle Lotte". ;)

PPS: Finde jetzt nicht mehr, wo der Verbrauch beim mp3-Encoden (Teillast) gemessen wurde. Da lag Intel auch deutlich besser. Der 11700 hier braucht zum Schauen eines 4k-Videos eines 3d Action-Games (von der CPU decodiert) zwischen 17 und 20 Watt, Graka im Leerlauf.
Ergänzung ()

CM286 schrieb:
"Das heißt also nicht, dass Intels CPUs komplett abgeschlagen sind. In einem Punkt sind sie es aber doch: Energiebedarf. Hier ist AMDs Lösung mitunter doppelt so effizient."
Wobei das "doppelt" sich auf Volllast bezieht. (was zumindest hier sehr selten vor kommt und wenn, dann nur kurzfristig)

Wenn der Rechner ständig in dem Zustand wäre, wäre er unbenutzbar. ;)
 
  • Gefällt mir
Reaktionen: Klever und CM286
Finde es schade dass z.b. der 12100f o.ä. nicht dabei ist. Für Leute, die typische esport games zocken wie dota oder csgo brauchts nichtmal einen 5600.
Ich spiel z.Z. nur dota, und wenn ich es nicht besser wüsste dann würde ich anhand des artikels vermuten dass ich erst ab 5600 brauchbare fps kriege. Dem ist aber in der realität nicht so.
Es gibt genug andere wie mich, siehe angehangene steam charts. Gemessen an dem, was solche Titel an Stunden gezockt werden, finde ich den Fokus auf AAA eh deplatziert. Aber das mag jeder anders sehen. Jedenfalls wünsche ich mir zumindest eine Randnotiz im Sinne von "für games mit geringen hardwareanforderungen wird nichtmal ein 12400f oder 5600 gebraucht" oder so ähnlich

charts.PNG
 
  • Gefällt mir
Reaktionen: aspro und axi
bensen schrieb:
Warum sollte man neue CPUs mit alten GPUs testen?
achso.. streicht man dann auch bald alte CPUs, weil sie schon ‚letzte Generation’ sind?
Natürlich weil die 3000 nVidia Serie grade erst die Vorgänger Serie ist und keine 970 von vor Ewigkeiten.
Es gibt durchaus Leute, die Stück für Stück upgraden.. besonders bei den AM5 Platform (gezwungenermaßen im Bundle: Board, CPU, DDR5) Preisen.
 
Und weiter geht die Märchenstunde zur ach so falsch ermittelten Effizienz der Intel CPUs… und weil die so gut ist, schreibt Intel da aus Spaß so hohe TDP Werte drauf.
 
CM286 schrieb:
Wir nehmen mal diesen Vergleich (Multicore Leistungsrating):

Anhang anzeigen 1334155

Da benötigt der Ryzen 9 im Leerlauf 75W - das sind schon mal 19W mehr:

Anhang anzeigen 1334156
Anhang anzeigen 1334157Anhang anzeigen 1334158

Bei Teillast benötigt der 7900 auch 19W mehr:
Anhang anzeigen 1334162
Anhang anzeigen 1334160
Anhang anzeigen 1334161

Also Fazit:
Im realen (Alltags-) Betrieb ist doch RPL effizienter unterwegs als der 7900. Und gleich effizent wie der 5950.

Bei Vollast kann RPL mehr Leistung aufnehmen, aber in welchem Zeitrahmen (außer Spiele) ist das der Fall?

Somit teile ich nicht die Meinung, dass RPL ein Problem mit der Effizienz hat, im Gegenteil.

Mal ein Beispiel:
Wenn der PC 10h in Betrieb ist (in Teillast/Leerlauf), hat der 13700K 190Wh "Energie-Guthaben", das heißt:
Unter Vollast könnte der 13700K fast 2 Stunden 100W mehr verbrauchen, um dann am Ende einen Gleichstand beim Energieverbrauch zu haben.
 
  • Gefällt mir
Reaktionen: Corpus Delicti
iron_monkey schrieb:
Und weiter geht die Märchenstunde zur ach so falsch ermittelten Effizienz der Intel CPUs… und weil die so gut ist, schreibt Intel da aus Spaß so hohe TDP Werte drauf.

Das ist die Brechstange, die AMD inzwischen auch nutzt, um in Benchmarks den längsten zu haben, weil anscheinend viele Leute danach kaufen.

Das mehr Verbrauch und die minimale mehr Leistung dabei derbe auseinanderdriften und das ganze eigentlich hirnrissig ist, sei mal dahin gestellt.

Verschlimmert wird das noch durch die MainBoard-Hersteller, die ihre Produkte oftmals mit ihrem aktiviertem auto-overclocking als Standard-Einstellung ausliefern.

Mit ein wenig selbst Hand anlegen, wie ASPM-Modi aktivieren, die erlaubte Leistungsaufnahme einstellen bekommt man zumindest einen Intel (habe keinen AMD, daher kein Wissen darüber) sehr sparsam, bei lediglich wenigen Prozent Leistungsverlust unter Volllast. (was kaum vorkommt)

Zur Märchenstunde: Einfach mal ein Messgerät zwischen PC und Steckdose schalten, und selbst schlau machen.

Wenn der PC nur zum Spielen eingeschaltet wird, und danach wieder aus, wirst du vmtl. recht haben, das AMD sparsamer ist.

Sobald viel Office, surfen, Multimedia, ... dazu kommt, zumal man die iGPU von Intel dazu nutzen kann (2 GraKas im System mit dGPU), und nur gelegentlich auch gespielt wird, schaut es anders aus.

PS: Habe die ganzen Content-Creator hier vergessen, die 24/7 Videos rendern. Da ist AMD auch besser. ;)

PPS: Fast alle benutzen auch XMP-Profile für schnellen RAM. Schau mal was ein AMD mit übertakteten RAM, am besten mit 2 CCDs braucht. Das sind im Leerlauf > 30W, wo der i7 hier nur 6W braucht. (Package Power)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR, Klever und CM286
Notting schrieb:
achso.. streicht man dann auch bald alte CPUs, weil sie schon ‚letzte Generation’ sind?
Natürlich weil die 3000 nVidia Serie grade erst die Vorgänger Serie ist und keine 970 von vor Ewigkeiten.
Es gibt durchaus Leute, die Stück für Stück upgraden.. besonders bei den AM5 Platform (gezwungenermaßen im Bundle: Board, CPU, DDR5) Preisen.
Ich komme nicht ganz mit. Hier werden CPUs getestet. Ist doch völlig egal, was der User zu Hause hat. Die GPU darf nicht limitieren, das war's.
Man kann eh nicht alle Kombinationem die die User haben durchtesten.
 
  • Gefällt mir
Reaktionen: Coeckchen
Zurück
Oben