Notiz CPU-Gerüchte: Rocket-Lake-S-Benchmarks zu gut, um wahr zu sein

wie schon erwähnt, kann man cp wohl schlecht als referenz hernehmen. selbst wenn das spiel das stabilste und am feinsten programmierte stück software auf diesem planeten wäre, ausgeklügelter und kunstvoller als dieser zeilenwust in spaceshuttles kann und darf man kein einzelnes spiel als gradmesser hernehmen. spiele sind de facto die schlechtesten aber auch naheliegensten benchmarks - also hört bitte mal auf mit diesem unsinn.

grundsätzlich auch eine bemerkung zu kernen und wirtschaftlichkeit: wenn man mit der kiste was anstellen will (und schlimmsten falls kein geld damit verdient) wird man wohl auf eine gewisse sparsamkeit setzen es sei denn man ist ein "enthusiast" - da ich diese wohlfeilen lieblinge der marketingabteilungen mal außen vorlasse, gelten meist folgende grundwerte: (a) (min.)fps/€ mit hinblick aufs max. budget für zocker und (b) arbeitsleistung bzw. ersparte zeit/€ mit hinblick aufs max. budget für schaffende. alles andere ist, sorry - abgehobenes herumgefasel und grob unwirtschaftlich. da fuhr man immer recht gut wenn man einen kleinen schritt voraus ist aber nicht, wie anscheinend einige hier meinen, einfach naselängs voraus durch die tür auf eben selbige stürzt. (btw. kann sich noch jemand an den 1c/2t pentium erinnern? haha)
 
ridgero schrieb:
Möglich ist alles, aber mit wieviel Strom? :D

Neuen PC im Frühjahr zusammengebaut. Netzteil: 650W (Gedanke: "Ein Glück, dass das alles nicht mehr soviel schluckt") - Nvidia 3080+, AMD 6800XT+, Intel: Hold my Beer :D
 
  • Gefällt mir
Reaktionen: Mcr-King
Krautmaster schrieb:
Wichtiger wäre wohl eher den Frame Limiter zu nutzen. Das spart am meisten Saft.
👍🏽 und ist dazu noch leiser
 
  • Gefällt mir
Reaktionen: Benj und Krautmaster
IBISXI schrieb:
Arma 3 ist von 2013

Ja und? Mit allen Reglern auf Maximum geht auch ein Rechner aus 2020 in die Knie, oder hat zumindest Probleme. Und das bei einem Spiel von 2013 ... (wie hier schon so viele bemerkt haben)
 
Zuletzt bearbeitet:
mibbio schrieb:
Was bei der bei der Diskussion um die Anzahl der Kerne auch immer untergeht: die Software auf dem PC besteht nicht nur aus dem Spiel (außer halt bei Benchmarks unter Optimalbedingungen). Auf dem heimischen PC läuft aber oft auch noch einiges Anderes nebenher oder im Hintergrund (Discord, Browser, Streaming-Software, Virenscanner,...)

Das stimmt. Wobei man das auch nicht überschätzen sollte. Die aufgezählten Dinge benötigen nicht sonderlich viel CPU Last, da ist eher eine ausreichende Menge Arbeitsspeicher Hilfreich. Sieht man mal ganz gut, wenn man diese Dinge laufen hat und auf die CPU Auslastung schaut.

Aber ja je nach Anwendung verschaffen einem da mehr Kerne auch mehr Luft. Besonders wenn man da auch etwas aufwendigere Dinge wie Discord betreibt.
Stev010881 schrieb:
Ja und? Mit allen Reglern auf Maximum geht auch ein Rechner aus 2020 in die Knie, oder hat zumindest Probleme. Und das bei einem Spiel von 2013

Das sollte aber nicht der Maßstab sein. Schlecht optimierte Software bleibt auch Jahre später schlecht optimierte Software. Ein Crysis von 2007. Auch die PC Version von Saints Row 2 bringt heutige Rechner in die Knie.

Aber was haben all die Spiele gemeinsam? Sie sind schlecht optimiert und nutzen aktuelle Hardware nicht richtig aus. Sie zwingen moderne PCs nicht in die Knie, weil sie so anspruchsvoll sind oder so vollgestopft mit toller Grafik oder Festures sind. Nein. Sie können vorhandene Ressourcen einfach nicht gescheit nutzen. Solche Spiele werden auch in weiteren 10 Jahren noch bescheiden laufen.
 
Otsy schrieb:
Von einer 'Füllergeneration' wie RL-S erwarte ich persönlich nicht allzuviel, gerade im Hinblick auf die vielen Kompromisse, die man wird eingehen müssen.
Richtig. Da könnte Volkers Aussage schon hinkommen mit den ~20%. Ich erwarte von einem Backport auch nicht viel, das mehr Cache am Ende auch mehr Energiebedarf bedeutet. Aber schön, dass die Jubelperser schon Volker eine Unwissenheit andichten. Eure Quellen hätte der Redakteur sicher gerne ;)

Mein Tipp: 11900K @ 125 W in allen Teillast-Szenarien Gleichauf mit AMDs Zen 3, in Games ein Paar Prozent besser (nichts was sich zum Wechseln oder gar zum Sidegrade lohnt), P/L etwas besser als CML. Und Pl2 Limit jenseits von Gut und böse, wenn man die CPU auch nutzt. Und vermutlich alle z490 Boards am overvolten, oder direkt mit PL2 als longterm..
Ich bin gespannt, ob ich wieder Recht haben werde ;)
Sollte der Wert echt mit 125W TDP gehen, dann würde Intel schon eine Pressekonferenz abgeben und Massiv Werbung machen für RKL. Aber auch für Tiger Lake ist die Werbung Eher spärlich. Da Frag ich mich, ob das Vllt Intel auch langsam an die Lieferketten geht.

@Stev010881
Arma 3 ist kein Spiel, sondern schlicht weg das am schlimmsten Programmierete Stück Code, in der Welt ...
Sorry, aber Arma als Benchmark kann ich nicht ernst nehmen, dagegen ist Crysis gut optimiert.
 
Shoryuken94 schrieb:
Das sollte aber nicht der Maßstab sein. Schlecht optimierte Software bleibt auch Jahre später schlecht optimierte Software.
Und was soll man machen wenn man dieses schlecht optimierte Spiel unbedingt spielen möchte?
 
Ich weiß garnicht warum jeder gefühlt 4te meint auf den ArmA 3 Kommentar eingehen zu müssen. Für mich lag die Aussage darin dass die meisten Games sowieso keine gute Multicore Optimierung aufweisen.

Ich hatte ja hier in meinem Betrag #119 (computerbase.de) nach Beispielen für echte use cases die mehr als 8C/16T nutzen gefragt. Bislang kam... nix.

Fakt ist dass Games im echten Durchschnitt stand heute noch bei <4 liegen, wir auf <6 zugehen und in zwei bis drei Jahren bei <8 angekommen sein könnten.


Zum Thema ArmA 3 und Kerne:
Wir haben ja jetzt schon 20x von postern gelesen das ArmA 3 von 2013 ist.
Was noch von 2013 ist: eine Playstation 4.

Man bedenke dabei: auch eine PS4 hatte schon 8 cores. Die PS5 hat ebenfalls 8. Die ganzen PS4 Games laufen, wenn auf dem PC verfügbar, auch nicht mit voller Nutzung von 8 cores...


Aus meiner Sicht ist es vollkommen irrelevant fürs Gaming sich einen 12 oder gar 16er zu kaufen es sei denn man macht es gezielt für max performance in den 2-3 Titeln die damit was anfangen können oder wegen maximalem Multitasking neben dem Gaming.

Und ja, habe selbst einen 12er aber nicht nur fürs gaming...
 
  • Gefällt mir
Reaktionen: Stev010881 und USB-Kabeljau
Volker schrieb:
Bei 225 Watt gegen 105 oder so^^
@Volker von dir so schwarzen Humor/Sarkasmus zu lesen, (gegen Intel), super! Ich finde es toll, dass du "ausgewogener" schreibst! :schluck:
 
  • Gefällt mir
Reaktionen: Shoryuken94
@Stev010881 Sie einfach weiterhin zocken wie bisher? Es ist nur einfach kein brauchbares Beispiel für Software, die aktuelle Hardware ausreizt. Das ist eher am Entwickler gelegen hier tätig zu werden.

nutzername schrieb:
Man bedenke dabei: auch eine PS4 hatte schon 8 cores. Die PS5 hat ebenfalls 8. Die ganzen PS4 Games laufen, wenn auf dem PC verfügbar, auch nicht mit voller Nutzung von 8 cores...

Das ist aber auch wieder ein Äpfel mit Birnen vergleich. Dabei gibt es mehrere Baustellen zu beachten. Das ganze fängt schon dabei an, dass Entwickler für Spiele nicht alle 8 kerne nutzen können. Je nach Spiel nutzen diese lediglich 6-7 Kerne. Dabei setzt man hier auf niedrig taktende Jaguar Kerne. Ein moderner Zen 3 oder hochtaktender Skylake Kern erreicht da schon fix die Leistung, die 4-5 Jaguar Kerne erreichen. Also alleine um die Leistung der PS4 zu repräsentieren brauchst du am PC im Grunde nur zwei Kerne. Nutzen können die meisten modernen low Level API Games deutlich mehr kerne. Ob aus mehr Kernen auch mehr Leistung resultiert ist die andere Frage.

Du kannst auch 100 kerne auslasten, wenn bestimmte Aufgaben nicht abgearbeitet sind, dann muss halt gewartet werden. Viele kerne nutzen können heute durchaus viele Spiele. Aber nicht unbedingt einen Mehrwert daraus ziehen. COD Modern Warfare kann auch 25 Threads und mehr nutzen, trotzdem limitiert auch die Singlethread Leistung, so das ein Threadripper 1950x in dem Spiel langsamer ist, als beispielsweise ein 5600x.

Sowohl Single Core als auch Multicoreleistung sind entscheidend. Man kann nicht alle Prozesse gleichermaßen parallelisieren.

nutzername schrieb:
Aus meiner Sicht ist es vollkommen irrelevant fürs Gaming sich einen 12 oder gar 16er zu kaufen es sei denn man macht es gezielt für max performance in den 2-3 Titeln die damit was anfangen können oder wegen maximalem Multitasking neben dem Gaming.

Sehe ich genauso. Rein zum spielen ist man aktuell mit einem 8 Kerner eigentlich ganz gut bedient und hat da auch noch genügend Reserven. Wer einen 12-16 Kerner rein zum zocken holt, der muss schon auf die paar Spezialfälle aus sein, damit es sich lohnt und selbst da sprechen wir meist von unter 5%. lächerlich wird das ganze aber etwas, wenn man manche Konfigurationen sieht. Da wird sich dann ein 12 kerner fürs zocken geholt, nebenbei steckt aber irgendeine alte oder "verhältnismäßig" langsame GPU im System, wie eine 1080(Ti), 2070 etc. Dort ist das Geld dann doch wesentlich besser in einem GPU upgrade investiert, denn im Gegensatz zur CPU bekommt man jede GPU in Spielen problemlos ausgelastet und die mehr Leistung auch in mehr Leistung / Bildqualität umgesetzt.

Rein fürs zocken macht es auch keinen Sich sich einen 12 kerner auf Halde zu holen, falls man mal die 12 kerne braucht. Bis das soweit ist gibt es wieder mehrere neue Generationen, die deutlich schneller sind. ich bin da eher der Meinung fürs Zocken lieber etwas niedriger greifen und öfters aufrüsten.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
USB-Kabeljau schrieb:
Gerade CPU zieht Cyberpunk viel zu viel, ...
Ich finde genau das ist zukunftsweisend denn 100% GPU Last und 50% CPU Last braucht Niemand.
Jedes aktuelle Spiel sollte mit bis zu 12 Kernen skalieren um aktueller Hardware gerecht zu werden.
 
Es ist also zukunftsweisend, wenn simple Prozesse unnötig Rechenleistung verschwenden, damit der teure xx-Kerner wenigstens ausgelastet ist.

Gut ... ist ne Meinung ...
 
  • Gefällt mir
Reaktionen: Benj, hahaqp und Shoryuken94
Schon wieder das Gelaber von uhhhhh zieht 266 watt Strom, als ob Ihr alle rund um die Uhr cinebench am laufen habt. Spiele Verbrauch liegt bei 80-120 Watt ist völlig ok und selbst ein Ryzen verbraucht locker 80 - 120 Watt in Spielen. Aber ya reitet Mal weiter auf eurer Ryzen Sonne weiter :D selbst mein 10850k auf 5 GHz zieht nur 80-100 Watt in Spielen. Aber scheint ja so als würdet ihr alle Videos schneiden und mathematische Gleichungen auf euren Tonnen rechnen XD.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und Benj
In Cyberpunkt könnten es 150 Watt sein aber im Vergleich zur RTX3080 mit 370 Watt kein Drama. :king:
 
cmi777 schrieb:
Neuen PC im Frühjahr zusammengebaut. Netzteil: 650W (Gedanke: "Ein Glück, dass das alles nicht mehr soviel schluckt") - Nvidia 3080+, AMD 6800XT+, Intel: Hold my Beer :D

Dass ist auch der Grund warum NTs ab 600Watt so selten seind zurzeit. 😉
 
ChowTan schrieb:
Der Grund für den Leistungssprung wurde doch bereits erwähnt - die neue CPU hat AVX512. Liest und denkt hier eigtl. wer vor dem posten?
Hier auch?
https://videocardz.com/newz/intel-core-i9-11900k-rocket-lake-s-cpu-z-benchmark-score-leaks

Wenn bei dem Intel wirklich AVX512 genutzt worden wäre, dann würde der SC wohl anders aussehen.

Hier meine alter i9 7920X stock AVX512 ...da sieht man was AVX512 ausmacht.
AVX512 stock.PNG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
Zurück
Oben