Test Intel Core i5-13500 im Test: Der i5 mit 14 Kernen im Clinch mit Ryzen 7000

Mr.Seymour Buds schrieb:
Die Idee der e Kerne und p Kerne finde ich immer noch nicht einleuchtend. Entweder ich will Leistung für Berechnungen oder Spiele oder ich will einen Preisleistungs-CPU für Büroanwendungen.
Mit den CPUs kriegst du hingegen beides! Schnelle 6-8C für Spiele und alltägliche Aufgaben und kleine Helferlein für größere Berechnungen. Wieso sollte man sich heutzutage nur für das eine oder das andere entscheiden müssen?
 
  • Gefällt mir
Reaktionen: Smartbomb
Weil die kleinen Kerne zusätzliche Komplexität bedeuten. Stichwort wäre hier zb Kontextswitching. Zudem nehmen sie wertvolle Fläche der CPU ein, die für andere Einheiten besser verwendet wären (Cache, GPU, P-Kerne).
 
  • Gefällt mir
Reaktionen: Rockstar85
Mr.Seymour Buds schrieb:
Zudem nehmen sie wertvolle Fläche der CPU ein, die für andere Einheiten besser verwendet wären (Cache, GPU, P-Kerne).
gehen nicht auf die fläche von einem p-kern zirka 4 e-kerne? 1 x 4,8 gegen 4 x 3,5 ghz
 
Mr.Seymour Buds schrieb:
Weil die kleinen Kerne zusätzliche Komplexität bedeuten. Stichwort wäre hier zb Kontextswitching. Zudem nehmen sie wertvolle Fläche der CPU ein, die für andere Einheiten besser verwendet wären
Habe ich auch immer so gesehen. Aber es hat sich ja mittlerweile viel getan und das Scheduling klappt gut. Bei massiven Multi-Core Workloads scheinen die Fusshupen eine Menge zu bringen über die nackte Zahl, die ständig steigt. Spiele brauchen immer noch max. 8 Kerne, da scheinen mehr "grosse" nicht zu fehlen.

Bei geringer Last sind die Intels auch konkurrenzfähig und scheinbar kann man das Ganze auch günstig herstellen, denn die Preise für die jeweils gleiche Leistung sind bei Intel ja nicht höher.

Unterm Strich muss man wohl anerkennen, dass Intel vom Design her - zumindest für ihre Fertigung - auf dem richtigen Weg ist damit. Den geradezu uneinholbar wirkenden produktiven Vorteil der 16-Kerner von AMD auf Intel bei den Ryzen 3xxx und 5xxx haben sie zumindest komplett aufgeholt mit dem Ansatz bei schlechterem Prozess. Das ist schon beeidruckend.
 
  • Gefällt mir
Reaktionen: Eisenoxid
jotecklen schrieb:
Finde ich auch interessant! Frage mich was AMD für die e-cores nehmen könnte.
Die Zen2 Kerne vielleicht, die auch im Steam Deck verbaut werden?

@topic: Würde mir sehr gerne eine neue CPU zulegen, aber was nützt es, wenn es keine attraktiven GPUs gibt?
Evtl. einfach Zen 3 wie bei 5700x zb. ohne SMT und eben kleinerer Cache?

Benötigt AMD aktuell aber noch nicht, da sie eben mit dem selben Verbrauch auch 16 volle Kerne mit SMT anbieten können. Intel bringt ja nur die e-cores um im TDP Budget zu bleiben und in Multicore nicht komplett abzukacken.
 
  • Gefällt mir
Reaktionen: lubi7
Vitec schrieb:
Intel bringt ja nur die e-cores um im TDP Budget zu bleiben und in Multicore nicht komplett abzukacken.
nebenher, das verkaufsargument früher für amd war ja auch mal mehr kerne. das hat intel amd genommen. 14 kerne hören sich schon besser an als nur 6.
 
till69 schrieb:
Ich habe kein Problem damit, wenn in Deiner (theoretischen) Welt ein Betriebssystem immer gleich schnell ist, völlig unabhängig von der CPU.
Mach doch mal den Blindtest... ist es echt so Schwer mal einem Fehler einzuräumen??

Und ja den Unterschied SSD/HDD merkst du. Ob da ein 6700K, 9700K oder 13500 drin ist, merkst du nicht, denn hier hilft dir eben die SDD. Und ja das ist messbar im Unterschied aber nicht spürbar. Somit auch für 80% egal

Ist es echt so Schwer mal einen Fehler einzuräumen?

Topic:

Ich halte E Core immer noch für überflüssig und man sieht es sogar in den Tests. Intel verbraucht pro P-Core gute 20W und konnte da nichts optimieren. Und genau deswegen und weil der doppelte Ringbus als 10C zu große zicken macht, gibt es diese E-Core. Ja mehr E Core sind nett, aber der Mehrwert hält sich in Grenzen. Big.Little funktioniert zwar im Handy, im PC Bereich Aber dann doch eher relativ. Intel rettet hier wie immer der Takt und die Tatsache, dass man in den teillast Szenarien sich verbessert hat. Wirkliche Zuwächse gibt es nicht zu ADL!
Und ja es ist logisch, das im MT dann mehr Theeads auch die Arbeit schneller erledigen. Aber es ist eben nicht das Prinzip wie in mobile, run to sleep. Am Ende bleiben es 8 Kern CPU, und auch AMDs Experiment mit 6C X3D und Rest normal, blickte ich sehr skeptisch entgegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr.Seymour Buds
Mr.Seymour Buds schrieb:
Die Idee der e Kerne und p Kerne finde ich immer noch nicht einleuchtend.
Man kann davon ausgehen, das die Idee weiter gesponnen wird. Es wird imo nicht nur P und E Kerne geben, sondern spezialisierte Kerne und je nach Marktsegment sind dann eine Anzahl X der Spezialkerne dabei.

"Spezialkern A": 1-2 voll ausgefahrene Kerne, quasi keine Kompromisse (Augenmerk Single Core Performance)
"Spezialkern B": 4-8 "große" Kerne, sinnvolle Kompromisse, trotzdem primärer Fokus Performance (Augenmerk Gaming / Apps ohne massive Multicore unterstützung)
"Spezialkern C": x E-Cores. Flächen und Stromoptimiert. Augenmerk: Multicore Performance
"Spezialkern D, E, ...": ML-Cores, "AI-Cores", usw.

Nich alle "Spezialkerne" wird es in jedem Prozessor geben, das ganze wird eher ein Baukasten.

Vorteil: Man kann für die verschiedenen Kerne verschiedene Fertigungen verwenden und hängt nicht komplett an einer Fertigungsstufe. Schnellere Execution. (Relativ) unabhängige Entwicklung der Spezialkerne.

Ist damit alles besser? Mitnichten. Jedoch sind wir aktuell an einem Punkt, an dem die klassische herangehensweise, einfach alles mit besserer Fertigung, mehr Kerne, mehr Takt, mehr, mehr, mehr einfach nicht mehr funktioniert, zumindest nicht mehr so gut wie früher.

Das könnte dann z.B. so aussehen:

i9 - A 2 Kerne, B 8 Kerne, C 16+ Kerne, D, E usw. je 1 Kern
i7 - A 1 Kern, B 8 Kerne, C 8+ Kerne, D 1 Kern, kein E usw.
i5 - kein A, B 6 Kerne, C 4+ Kerne, kein D usw.
i3 - kein A, B 2-4 KErne, C 4+ Kerne, kein D usw.

Dann könnte es evtl. auch eine Ultra Gaming Edition geben: nur A und B Cores, max TDP usw.
 
@JohannesKraut

hier kannst Du das Größenverhältnis einmal sehen. Link ist einer der ersten Google Links für

Die Shot Raptor Lake i9-13900KF

Wie man sieht ist das Verhältnis ungefähr 1:4. Auf vier kleine E-Kerne könnte man einen P-Kern setzen. Das dunkelblaue auf dem Foto sind jeweils vier E-Kerne!

@maximus_hertus

Das ist heute schon so. Nur sind die von Dir beschriebenen "Spzialkerne" über verschiedene Komponenten des PC verteilt. Zb sind die ML-Kerne auf der GPU. Eigentlich könntest Du auch viel mehr auf der CPU unterbringen, wenn da die Sache mit der Fläche nicht wäre. Denn Fläche kostet auf der CPU richtig viel Geld und wird mit steigender Die Größe prohibitiv teuer. Zumindest im Privatkundengeschäft (Militär und Forschung ausgenommen).

@Rockstar85

Gut, dass Du den Vergleich zum mobilen Segment in #127 erwähnt hast. Genau dort macht die komplexere Architektur tatsächlich Sinn. Im Desktop eher nicht. Auch die P-Kerne haben freilich bereits Energiesparmechanismen implementiert. Der Fortschritt durch die E-Kerne bringt aus meiner Sicht keine signifikante Besserung. Ich bin auch nicht bereit für E-Kerne zu zahlen. Ich möchte Leistung! Um die überstrapazierten Autovergleiche zu nutzen: Hubraum kann man nur durch noch mehr Hubraum ersetzen. Wie es bspw. in den schönen, großhubigen Hochdrehzahl V8 vor 10-15 Jahren genutzt worden ist. So ähnlich ist es auch hier bei CPU: Intel i10- mit 16 P-Kernen und 6 Ghz pro Kern! :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
[wege]mini schrieb:
So lange du nicht in 720p unterwegs bist, ist die CPU für "Gamer" eigentlich total egal. Es ist (meiner Meinung nach) Bauernfängerei.

Es mag sein, dass es HEUTE keinen großen Unterschied macht.

Aber springen wir mal 3 Jahre in die Zukunft, Games benötigen mehr Leistung. Da wird die in 720p langsamere CPU schneller die Puste ausgehen.

Und viele kaufen sich nicht nach 3 Jahren einen neuen Rechner, eher nach >5.

Je nach Spiel gibt es ja auch heute schon gute Unterschiede. Ist halt nur die Frage ob man auch auf dem Level spielt, wo man das merken würde (4k, Ultra High, mit RTX 4090). Die masse spielt ja dann doch eher Full-HD oder WQHD und nicht mit einer 4090, sondern eher 3060. Da macht die CPU heute ja alles mit.

Der Vorteil heute ist aber, dass die CPU ja nicht ans Limit kommt und somit kannst du deinen Rechner effizienter betreiben. (ob das jetzt 10 Cent Ersparnis pro Jahr sind oder 20 Euro, sei jetzt mal dahingestellt).

Ob die CPU jetzt oder in Zukunft limitiert, dass kann man nur anhand des Gesamtsetting sagen.

Für mich steht jedenfalls fest, man braucht nicht überall absolutes High-End um gut spielen zu können.
Bei vielen Spielen sieht man zwischen den Detailstufen eh kaum einen Unterschied und in der hektischen Bewegung meisten sowieso nicht. Aber das ist halt Geschmackssache und Einbildung und dafür muss man halt entsprechend Geld auf den Tisch legen.
 
maximus_hertus schrieb:
Man kann davon ausgehen, das die Idee weiter gesponnen wird. Es wird imo nicht nur P und E Kerne geben, sondern spezialisierte Kerne und je nach Marktsegment sind dann eine Anzahl X der Spezialkerne dabei.
Das Kernproblem ist hierbei folgendes:
Solange die 8C P Core Geschichte bleibt, ist Intel fest an 8C zementiert, de Facto gibts also einen Rückschritt
. (und die gleichen Probleme, die der Doppelte Ringbus schon seit Skylake plagt)
Man muss sich dazu einfach nur auf der Zunge zergehen lassen, dass AMD bei gleicher Kernzahl ~11,5W hat und das Pro Vollwertigen kern.
Intel muss also mittels Mesh, Interconnect wie auch immer, die Core Latenz für mehr als 8C Fit machen. Wenn Intel das nicht gelingt, wird AMD alleine durch IPC Verbesserungen Intel davonlaufen und Intel eben die TDP erhöhen..
Was im Mobile Markt funktioniert, funktioniert eben nicht im Desktop und ist ein fauler Kompromiss.. Der Rest ist Marketing.
Intel kann derzeit als Hebel nur die IPC der E-Core verbessern und dann machen eben die P Core keinen Sinn...

und es DARF auf Grund der Offenheit der Software keine Segmentierung in AI Kerne Etc geben, das wäre der Todesstoß für Risc-V, ARM etc. Es macht nebenbei aber auch keinen Sinn. Decoderkerne gibt es ja schon lange in der GPU, und Intel wird eher einen Core haben und darum dann die Uncore Chiplets planen.
 
Tunaraxx schrieb:
Öffnet sich dein Browser nun 0,3 Sekunden schneller ?

Bootet dein System nun in 21 Sekunden hoch statt 22 Sekunden?

Du nutzt einen Rechner jeden Tag 2 - 10 Stunden (Privat - Arbeit) über Jahre
Alles geht 10% schneller.
Wieviel Lebenszeit spart dir das?
Was ist dir das Wert? (rhetorisch, siehe letzte Zeile)

Ich persönlich verbaue schnelle NVMe und RAM, weil die, im Vergleich zu ein paar % mehr CPU-Power, in meinem Workload am meisten Zeit sparen.

Jemand der viel Videos bearbeitet würde wohl eher mehr CPU-Power benötigen.
Ein anderer, der mehr Rendert, hat von der GPU halt mehr.

Ob und wieviel einem das Wert ist, muss jeder selber wissen.
 
  • Gefällt mir
Reaktionen: Smartbomb und Mr.Seymour Buds
Rockstar85 schrieb:
Solange die 8C P Core Geschichte bleibt, ist Intel fest an 8C zementiert, de Facto gibts also einen Rückschritt
Intel ist bei 8C "zemetiert" weil es schlichtweg kaum Anwendungsfälle gibt, bei dem mehr Kerne einen Vorteil ergeben und da wo sie es tun, skalieren die Anwendungen praktisch beliebig. In der Sackgasse befindet sich hier AMD, weil sie aktuell entweder die Anzahl der Chiplets erhöhen oder pro Chiplet auf 12 oder 16C große Kerne gehen müssten. Beides würden den Preis der CPUs erhöhen oder eine neue Architektur erfordern und nur einen kleinen Markt bedienen.

Intel hat es perfekt gelöst, der 13900k kann mit einem 7950X mithalten und es dürfte Intel leichter fallen noch 16 zusätzliche Kerne auf zukünftige CPUs zu packen, als es bei AMD der Fall ist. Dabei hat AMD sogar bereits die Fertigungskarte ausgespielt, der Shrink steht bei Intel noch an.

Es hat schon seinen Grund wieso AMD ebenfalls an Zen "c" Kernen arbeitet, die Zukunft gehört nun mal solchen asymmetrischen Architekturen, weil die meisten Alltagsanwendungen selten mehr als 2-4 Kerne nutzen, aber trotzdem hin und wieder eine hohe Anzahl Kerne vom Vorteil ist.
 
xexex schrieb:
Intel ist bei 8C "zemetiert" weil es schlichtweg kaum Anwendungsfälle gibt, bei dem mehr Kerne einen Vorteil ergeben und da wo sie es tun, skalieren die Anwendungen praktisch beliebig.
Wenn es denn so wäre.. Nein es ist falsch und Intels technische Lösungen zeigen es im HPC Bereich Eindrucksvoll. Es gab hierzu auch mal hier Tests warum bis 8C der doppelte Ringbus besser ist. Sag es einfach wie es ist. Intel müsste hierzu wieder auf Meshähnliche Systeme gehen und das kostet Geld und Performance
https://www.anandtech.com/show/15785/the-intel-comet-lake-review-skylake-we-go-again/4

Nebenbei würde ein 10C/20T Cove dann schlanke 200W im Load verbraten.. Und damit eine 150W TDP fällig! Klar dass man dafür dann lieber 8 E Core dranhängt.. Ach und der Rest ist wie ich schon sagte Marketing.

Und AMD Bergamo hat andere Gründe als Intels E Core, dazu mal das Video von Roman zum Ampere 80C SOC anschauen. (Beides sind Servermodule)
https://www.anandtech.com/show/1705...zen4-genoa-and-bergamo-up-to-96-and-128-cores
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Nein es ist falsch und Intels technische Lösungen zeigen es im HPC Bereich Eindrucksvoll.
Mag sein, wir reden hier aber nicht vom HPC. Das "Kernrennen" ist so tot, dass nicht einmal AMD diesen Markt noch mit aktuellen Threadripper Modellen bedient.

Wir reden hier vom Massenmarkt, wo abseits von Spielen 99% der Zeit nur einzelne Kerne benötigt werden und hin und wieder rendert man ein Video oder braucht etwas mehr Leistung. Dafür ist ein "Kombi mit Anhänger" definitiv besser geeignet als würde man ständig mit einem LKW herumfahren.
 
Hallo, ich hab da ein paar Fragen ...

1. Kann man die E-Kerne nicht iwie dazu "zwingen" dass sie beim Spielen mehr mithelfen?

2. Im Alderlake Test stand, ein E-Kern hat ~Skylake Performance. Könnte man sagen, ein 8700K ist quasi ein Effi-kerner mit HT, performancetechnisch gesehen?

3. Warum macht sich Intel mit zu engen TDP-Korsetts selber schlecht? Da machen sie einen 14 Kerner, und geben ihm nur 65 Watt frei, das sogar beim Spielen zum Drosseln führt. Das macht doch kein Sinn.
Beim 13700/13900 wird das doch noch viel krasser werden.

Warum geben sie hier nicht einfach 95 Watt frei? Der Ball wäre doch damit an die OEMs bzw. Kühllösungen weitergespielt.

Bei Notebooks versteh ichs ja, aber bei Desktop CPUs nicht.
 
maximus_hertus schrieb:
So lange ein 12400 rund 90-100(!) Euro günstiger ist, so lange ist der 13500 nicht sooo attraktiv, gerade wenn man eher Richtung Preis / Leistung schaut.

Umgekehrt ist ein echter Raptorlake alias 13600k teils deutlich schneller (im Schnitt so 18-20+%) für aktuell "nur" 69 Euro Aufpreis.
Gerade in Multi-Core-Anwendungen ist die Argumentation nicht schlüssig. Gegenüber dem 12400 mit dem aktuellen Multi-Core-Leistungsrating von ComputerBase bei den aktuellen Preisen aus dem Geizhals und
  • bei Limitierung auf 65W
    • liefert der 13500 ein 2,5% besseres P/L-Verhältnis,
    • der 13600K aber ein 14,8% schlechteres.
  • Und unlimitiert
    • liefert der 13500 ein 15,5% besseres P/L-Verhältnis,
    • der 13600 aber nur ein 5,2% besseres.
Je nachdem für welchen Betrieb man sich entscheidet, liefert der 13500 also immer das beste P/L-Verhältnis.

Da der Vorteil für den 13500 beim niedrigen Power Limit nicht sonderlich groß ist, gibt es tatsächlich bei niedrigerem Budget weiterhin einen Markt für den 12400. Den muss man allerdings komplett über den Preis rechtfertigen und nicht über das P/L-Verhältnis.
 
  • Gefällt mir
Reaktionen: JohannesKraut
Rockstar85 schrieb:
Das Kernproblem ist hierbei folgendes:
Es geht mir nicht um 2023, sondern um das, was in einigen Jahren kommen könnte. Auch beim Interconnect wird es Entwicklungen geben.

Das das kein Selbstläufer ist oder ob das super funktionieren wird? Das wird die Zeit zeigen. Aber wenn man die aktuellen Probleme sich anschaut (Nodesprünge sind/werden absurd teuer und bringen viel weniger als "früher"), dann muss man halt "drumherum" entwickeln / bauen.

Sowas wie aktuell noch z.B. Ryzen 7000, bei dem es einfach nur 16 gleiche Kerne gibt, wird in Zukunft wohl nicht mehr so häufig kommen, da schlicht zu ineffizient und teuer.
 
maximus_hertus schrieb:
Sowas wie aktuell noch z.B. Ryzen 7000, bei dem es einfach nur 16 gleiche Kerne gibt, wird in Zukunft wohl nicht mehr so häufig kommen, da schlicht zu ineffizient und teuer.
Da wäre ich mir garnet so sicher. Da AMD derzeit eher das Problem hat, dass die Idle Load des Infinity Connect am Ende viel Energie frisst. Das Problem hast du aber nur bei den 12 und 16C... Ja AMD wird wie Intel Langfristig eher nicht die Kernzahl erhöhen, aber Arrow Lake wird auch anders funktionieren. Wir werden mit MTL dann sehen, wie das funktioniert.
und ich hoffe dass Intel mit MTL die Verbrauchsoptimierung von Cove vornimmt.. RPL+ hingegen dürfte heute eher dann der wahre P4 Extreme werden.
Insofern würde ich auch keinem von 13 auf 14th Gen raten, denn hier wird es aller Voraussicht nach keine IPC Verbesserung geben. Spannend wird sein, wie zen4C Skaliert und ob AMD auf Intels Weg aus Kostengründen aufspringt. (und Zen4C für Consumer adaptiert)


Stand heute sind wir bei Intel bei folgender Liste:

Entry: 12100F (weil billiger als der 13100)
Mid: 13500 oder 12600K (12400F ist auch spannend, aber nur beim jetzigen Preis um 170€)
Upper: 13600K (aber auch hier ist der Preis derzeit eher so Meh, und ich würde zum 13500 greifen)
High: 13700K oder 13900K
 
Zuletzt bearbeitet:
Zurück
Oben