News Intel Rocket Lake-S: Core i9-11900K schlägt Ryzen 9 5900X in Spielen

'Xander schrieb:
Nö- der 10900k überschreitet selbst beim Rendern/Encodieren die 200W nur Selten...max ca. 210W.

gruss
Also meiner zieht nun wirklich wenig, kannst davon ausgehen das andere Chips da 260-300W+ ziehen je nach Güte und Kühlung.Bei Game und 120FPS sind das ca. 75W.

Also so gut die Frametime und Plattform auch ist, wenn man wirklich die Kerne auslastet, dann geht die Wattzahl ab nach oben.
Aber dann zieht nen AMD auch keine TDP mehr^^, der 16Kerner saugt da glaube über 250W.

1.jpg
 
Zuletzt bearbeitet:
Sound-Fuzzy schrieb:
Doch. Zwar nicht dauerhaft, aber das Powerlimit lässt es zu. War beim 10900K nicht anders: klick
Und der 11900K scheint aufgrund der gestiegenen Kernleistung auch mehr Saft für die gleiche Taktrate zu benötigen bzw. aggressiver hochzufahren. ;)
Genau um den 2. Teil deiner Aussage ging es mir denn woher soll denn ein höherer Stromverbrauch
bei weniger Takt (und im Vergleich zum 10900K sogar weniger Kernen) kommen ? Unwahrscheinlich.
 
Aber leider Realität!
Rocket-Lake-S wurde eigentlich für 10nm entwickelt und dann auf 14nm rückportiert. Irgendwie wollen die Detailoptimierungen wie z.B. der verbesserte Speichercontroller (jetzt offiziell bis 3200er Speicher freigegeben) etc. wohl mit Strom versorgt werden, was man wohl durch die geplante Strukturgröße von 10nm kompensieren wollte, aber leider nicht geschafft hat!
Ist leider für Intel nicht unüblich, dass man über eine gesteigerte Stromzufuhr das letzte Quentchen Leistung aus einer "veralteten" und/oder überarbeiteten Struktur quetscht, nur um übergangsweise die Nase vorn zu haben. ;)

Auch haben Takt und Strombedarf nur innerhalb der gleichen Architektur eine Aussagekraft. Nehmen wir mal die hauseigenen Konkurrenten zur ersten Core-i7-900-Generation unter die Lupe: klick
Wie man sieht, hat selbst der i7-920 mit nur 2,66GHz bei gleicher Strukturgröße und Kernzahl einen höheren Strombedarf als der QX9770 mit 3,2GHz und höher getaktetem Speicher!
In Spielen und der Gesamtperformance hatte der i7-920 sogar das Nachsehen, nur bei Office war er leicht vorn: klick :D
 
Von 2933 auf 3200Mhz ist wenig und fraglich ob sich das nennenswert auf den Stromverbrauch auswirkt
weil dann müsste XMP mit 3600, 4000 oder wie bei mir 4400Mhz auch deutlich mehr Strom verbrauchen.
Vielleicht lassen sie noch etwas Spielraum für ein 5,0Ghz All Core Boost Modell wie damals beim 9900KS.
 
Du wirst mit potenter Wakü auch 5,2Ghz+ schaffen je nach Güte CPU.
Die 250W betreffen doch eh mehr AVX Lasten, von daher ist es Nonsens sich darüber Gedanken zu machen, da die Watt Zahl im Gaming um ein vielfaches niedriger ist.

Rein vom Spielraum her ist bei Intel mehr Luft, bei AMD ist es Kotzgrenze, viele kämpfen mit WHEA Fehler sobald der Speicher angefasst wird.
Prall ist das ganze Trotzdem nicht und 8 Kerne sind etwas Mau.
 
0ssi schrieb:
woher soll denn ein höherer Stromverbrauch bei weniger Takt (und im Vergleich zum 10900K sogar weniger Kernen) kommen ? Unwahrscheinlich.
Größere Caches benötigen mehr Strom. Allgemein kannst du sagen, dass 10% mehr Transistoren im gleichen Fertigungsverfahren auch 10% mehr Leistung aufnehmen werden. Der Die ist ja auch größer geworden, sonst wäre Intel nicht auf 8 Kerne runter gegangen.
 
  • Gefällt mir
Reaktionen: Steueroase und ZeroStrat
Ohne jetzt die Benchmarks direkt angreifen zu wollen - mir sind die paar %-Punkte da eh egal, fällt mir auf dem Bild mit den Monitoren direkt mal auf, dass die System/FPS Anzeige unterschiedlich ist.

links stehen Systeminfos und rechts daneben mit klarem Hintergrund die FPS vom Intel.

Während rechts die Systeminfos verdeckt werden von einer FPS-Anzeige mit schwarzem Hintergrund.
Sowas weckt bei mir gleich mal Misstrauen.

1614193757616.png


5-1080.5c9b1313.jpg
 
  • Gefällt mir
Reaktionen: Knito
Das ja schon mehr als Lächerlich wenn die Anzeigen schon nicht identisch sind.

Ab wann wird man den die Intel vorbestellen können? Bin leider auf eine GPU in der CPU angewiesen und von AMD gibts da leider noch nichts was nich wesentlich langsamer als der 5600X ist :(
 
  • Gefällt mir
Reaktionen: Fuchiii
Sunjy Kamikaze schrieb:
in leider auf eine GPU in der CPU angewiesen und von AMD gibts da leider noch nichts was nich wesentlich langsamer als der 5600X ist :(
Was ja nicht schlimm ist - Intel stellt ja durchaus gute, potente CPUs her.

Umso mehr ärgert es mich wenn man schummeln muss^^
 
Joa der ist da schon über einen Tag drin. Mit falschem Takt, keiner Beschreibung, zu viel zu hohem Preis. Wer den kauft .. aber das ist ja grad Mode^^
Bin gespannt ob die ankommen.
 
  • Gefällt mir
Reaktionen: Verak Drezzt und Steueroase
5,0 Ghz Single Core Boost kann schon stimmen. Die Frage ist halt wie viel All Core Boost er hat !?
 
Könnte man in Anbetracht aktueller Leaks & Benches mit noch nicht finaler Firmware bereits von Betrug an Investoren & Anlegern sprechen? Der 11700k schafft ja nicht mal seinen Vorgänger zu schlagen, ob sich das mit 0,4GHz mehr Singlecore Takt ändern wird um dann noch die messbar bessere Konkurrenz zu schlagen?

ich speichere den Artikel schon mal für ne Klage ab. Lol.
 
Langsamer wird bestimmt Nichts weil:

i7-10700K 8x 4,70Ghz DDR4-2933Mhz
i7-11700K 8x 4,60Ghz DDR4-3200Mhz
i9-11900K 8x 4,80Ghz DDR4-3200Mhz
 
Wenn man jetzt einzelne Kerne selbst Taken kann ( hatte ich irgendwo gelesen) Ist es dann möglich das der Singel / Duo Core Boost evtl noch etwas höher geht?

Sprich singelcore 5,5 Ghz z.B ?
 
0ssi schrieb:
Langsamer wird bestimmt Nichts weil:

i7-10700K 8x 4,70Ghz DDR4-2933Mhz
i7-11700K 8x 4,60Ghz DDR4-3200Mhz
i9-11900K 8x 4,80Ghz DDR4-3200Mhz

Wenn das mit den deutlich gestiegenen Latenzen auch nach den Firmwareupdates so bleibt, dann wird das in Spielen erstmal zu erheblichen FPS Verringerungen führen, die „ganzen“ improvements sind dann nur am Auffangen des Verlustes. Siehe eben aktuelle Tests.

wenn es wirklich nur an der Firmware liegt wäre das großartig ja, aber gerade sieht es nach nem schlechten Backport aus, muss nicht kann aber sein.

Ich hoffe aber dass Intel im Januar nicht gelogen hat & die neuen Chips wirklich gut sind.
 
  • Gefällt mir
Reaktionen: Steueroase
'Xander schrieb:
Nö- der 10900k überschreitet selbst beim Rendern/Encodieren die 200W nur Selten...max ca. 210W.

gruss

~200W herum mit CinebenchR20, bei mir ist TAU Boost auf endlos gestellt (Gigabyte Standard).

Ist bei Spielen meist deutlich unter 100W zu sehen, total belanglos. Was mir eher auffällt ist der niedrige peak im Leerlauf und die fehlenden Probleme a la AGESA/USB, AGESA/XMP, AGESA/was_auch_immer_ungelöst_seit_ZEN2 ansteht bei AMD.

Mit zwei drei basic Settings läuft das ganze auch mit 5.3GHz / 49x Cache und locker dazu 4600MHz 2x16GB RAM, da geht auch bei einem OC'ten 5900x nicht mehr viel und die sind da sogar wärmer als die Intel CPU, so ist das halt mit OC:
https://www.3dmark.com/spy/16080271

Aber die Lüfterkurve kann bei 5.3GHz nicht mehr auf leise/silent gestellt werden, so ist das für mich nicht ideal.

unknown[1].png
 
  • Gefällt mir
Reaktionen: Steueroase
lugge schrieb:
+19% IPC klingt ja schonmal nicht schlecht, aber ich bin mal auf ein "Performance pro Watt"-Diagramm wie bei den Grafikkartentests gespannt.

Ansonsten muss ich sagen, dass ich langsam bei Intel nichtmehr durchblicke mit den ganzen Lakes, was da nun welche Architektur und in welcher Fertigungsgröße ist, was eine Grafikeinheit hat und was ist mit dem BIGlittle-CPUs? Bei AMD ist zwar die numerische Bezeichnung teilweise suboptimal, aber ich habe gefühlt einen besseren Überblick über die Roadmap. Kann aber auch daran liegen, dass sich bei Intel alles verschoben hat, während AMD (zur Zeit) ziemlich gut im Zeitplan geblieben ist.
Alles was bei Intel CPU mässig für Gamer ausreichende Leistung hat und im Desktopsegment angesiedelt ist basiert bis Stand heute auf 14nm. Die kleinen I3 und Pentium gibts teilweise ja nicht nur als NB CPU mittlerweile auch in 10nm. F steht für no IGPU ohne eine Graka bleibts dunkel auf dem Bildschirm. K ist wohl jedem bekannt heist man kann die armen Chips noch über ihre Standardkotzgrenze prügeln muss es aber nicht. Denn das was Intel den Chips schon von Haus aus an Leistungsaufnahme/Lastspitzen zumutet grenzt schon an Sadismus. Für eine Benchmarkdauer wirds dank heroischem Stromkontigent für langen SBalken am ende wieder gut sein. Ist so wie mit Nitro im Auto wenns nur kurz genutzt wird tolle Leistungsspritze. Zu lange dann wirds meist teuer beim Reparieren des zerschossenen Motors.

Mfg
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben