Dafür steht die viel größere Angriffsfläche auf irgendwelche Sicherheitsprobleme und die Leistungsverluste pro Thread, wenn der zweite Thread wirklich parallel benutzt wird im Schnitt.foofoobar schrieb:Größer 15% mehr Bumms bei 5% mehr Chipfläche war schon immer ein guter Deal.
Und die Zenc Cores können auch SMT.
Ob das wirklich ein guter Deal ist, ist überhaupt nicht gesagt. Zumindest in der Form wie man das atm umsetzt. Wenn man natürlich nur Cinebench und Blender nT Benchmarks als Basis ran zieht, dann fehlen dort natürlich 20, 25% der P-Core Gesamt Leistung bei Intel stand heute.
Das Prinzip ist aber ein anderes. 1P-Core mit SMT benötigt bei Alder Lake die Fläche von vier E-Cores. Oder andersrum, es passen 4E-Cores in die Fläche von einem P-Core. Das heißt. Anstatt also mehr P-Cores mit SMT dran zu bauen wäre/ist für ein absolutes MT Szenario der Ausbau von mehr E-Cores (eben dann ohne SMT) die bessere, weil Flächen- und energieeffizientere Wahl und gibt obendrein auch noch mehr absolute Leistung.guggi4 schrieb:Intel braucht also für gleich schnelle CPUs ohne SMT mehr Chipfläche oder ist bei gleicher Chipfläche langsamer.
Ohne das jetzt im Detail geprüft zu haben - bei der SMT Aussage ist mMn der Kontext wichtig. Auf was bezieht sich das jetzt genau? Auf die P-Cores, wo man jüngst SMT weggespart hatte? Oder auf die E-Cores, wo es nie bisher aktiv genutzt wurde, geschweige denn eingebaut ist?
Das Prinzip, dass mehr E-Cores auf gleicher Fläche = mehr Multithread Performance overall bedeuten ggü. reinen P-Cores bleibt unabhängig vom SMT bestehen.
Da wo das thematisch ein Problem ist, sind Teillast Szenarien mit wenig Lasttragenden Threads. Weil da nutzt die Anzahl der E-Cores eben nix. Aber SMT ehrlicherweise auch nicht. Die Frage ist, was will man damit jetzt adressieren?
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-5-225f-235-test.92075/seite-5pioneer3001 schrieb:Das Leute immernoch so einen Blödsinn von sich geben wie "Intel hat keine schlechten Chips" ist für mich unbegreiflich. Welches Kriterium drückt denn besser aus als Perf per Watt ob eine CPU oder GPU besser oder schlechter ist? Beides lässt Intel schon bei TSMC produzieren und bei beidem können sie bei Perf per Watt nicht mithalten mit AMD oder NVidia.
Keine Ahnung welche Zahlen du kennst - aber wenn man die CPUs in den Bereich treibt, wo eben nicht aufs letzte Prozent absolute Leistung geschaut werden muss, dann sind die Dinger bei weitem nicht ineffizient. Eher sogar im Gegenteil. Ohne L3 Cache Orgien effizienter als die X3D Riege bei AMD in Games mit so nem Intel Teil belegt, dass Intel hier kein Chip Problem oder Architekurproblem perse haben kann.
Was aktuell ein Problem ist, ist die Tatsache, dass die Märkte Anforderungen definieren wo man sich nicht auf der grünen Wiese neu platzieren muss/kann/soll, sondern es am Markt viele Produkte gibt. Ein 14900k(s) als Basis ggü. einem 285k ist halt ein ziemlich schlechter Ausgangspunkt, wenn man obenraus nicht gleichzeitig die absolute Performance und in der Basis die Effizienz steigern kann.
Das immer weiter hoch geprügelte Design mit wenig Leistungssteigerung teuer erkauft durch Taktraten und Leistungsaufnahme bedeutet unterm Strich, dass man entweder eine Wunderarchitektur erfinden muss (ala Core2 damals ggü. Netburst P4) oder man sich stückchenweise dem Ziel nähern sollte.
Der 285k macht es stückchenweise. Peak MT Performance ist gut. Effizienz ist gut, absolute Gamingleistung aber sinkt bspw. Mit späteren Modellen führt man das wahrscheinlich weiter fort.
Und AMD? Die haben das selbe Problem. Die Effizienzverluste des 9950X3D ggü. dem 7950X3D sind schon extrem. Vor allem im Gaming. Während das beim 5800X3D ggü. dem 7800X3D noch komplett anders herum war.