News Intel Arrow Lake: Weitere Infos zu CPU und Chipsatz der neuen Plattform

Dennoch sind bis zu 120 Gbit/s in eine Richtung vorgesehen.
Und wie soll das gehen bei maximal 64 Gbit/s (brutto) über PCIe 4.0 x4? Selbst die synchronen 80 GBit/s funktionieren doch so nicht.
 
@Conqi
Sieht in der Grafik so aus, als ob die Daten der GPU direkt in den Chip geschoben werden, nicht über die PCIe Lanes. Dann wären die 64 Gbit/s rein für Daten zuständig und die DP Signale gehen direkt rein? Sonst geht es ja gar nicht eigentlich.
 
  • Gefällt mir
Reaktionen: Anzony und Conqi
@Donnidonis Damit lastet man die Schnittstelle dann auf jeden Fall besser aus, aber die 80 oder gar 120 GBit/s beziehen sich ja erstmal auf den Datendurchsatz und sollten auch ohne Video erreicht werden. Sehe nicht was TB5 dann hier gegenüber TB4 bringt.
 
Ben_computer_Ba schrieb:
im Notfall kann man ja noch 2 pcie 5.0x4 Steckplätze aus einem der pcie 4.0 x 16 slots bekommen
Wie soll das gehen?
k0n schrieb:
Als Laie hab ich mir das was Intel vor hat so gemerkt: Nur noch E-Cores (ohne HT)... und diese E-Cores können sich je nachdem zu P-Cores zusammentun xD
So funktioniert das aber nicht, die CPU kann die "Rechenaufgabe" mal nicht eben vierteln und auf andere CPUs verteilen. Es gab mal eine Ankündigung einer CPU die sowas können soll, damit hätte man belibig viele Cores auslasten können (so der feuchte Traum) aber die ist wie so vieles im Sand verlaufen.
tomgit schrieb:
AMDs Prozessoren sind nicht (unter Last) effizienter, weil sie kein big.LITTLE verwenden, sondern obwohl sie kein big.LITTLE verwenden.
sie sind nicht effizienter weil sie kein big.LITTLE verwenden sondern weil sie kein big.LITTLE verwenden? Deine Ausssage ergibt keinen Sinn.
LeckerRK schrieb:
Hyperthreading weg das haut alle PC`s zurück in die Steinzeit.
Du weißt schon warum Intel HT eingeführt hat? Es ging um die bessere Auslastung der CPUs, ungenutzte Rechenleistung nutzen.
ArrakisSand schrieb:
16 Tattergreis Kerne und kein Hyper-Threading dass kann ja heiter werden.
Die E-Cores sind keine Tattergreis Kerne, abgesehen davon hast du ja noch die P-Cores. Die E-Cores haben mit den früheren Atom Cores nichts mehr zu tun, aber natürlich sind sie langsamer als die P-Cores, dafür aber effizienter.
mae schrieb:
Ich habe ja die Hoffnung, das Intel einmal bei der Security ernst macht, und Spectre endlich fixt. Da kann ich mir gut vorstellen, dass dabei auch SMT (aka Hyperthreading) dran glauben muss, das bietet einfach zuviele Nebenkanaele.
Das wirds wohl sein, sie haben ja schon beim erscheinen von Spectre gesagt das um das zu beheben eine Architekturänderung erfordert, vielleicht haben sie es nicht in den Griff bekommen.

Mich wundert nur wie die anderen CPU Hersteller das bei ihrem SMT schaffen? Intel scheint hier einfach den leichten Weg zu gehen.
tomgit schrieb:
Nur ist das kein Problem des big.LITTLE Prinzips, sondern Intels Architektur.
Das sind einfach nur mehr Kerne, mehr nicht. big.LITTLE muss auch das OS können um Sinnvoll genutzt werden zu können.
Cr4y schrieb:
Die Sicherheitslücken betreffen mich als Privatperson 0.
Daher mag ich noch nicht dran glauben, dass Intel komplett darauf verzichtet.
Null, stimmt nicht. Klar RZ Betreiber und Firmen sind davon viel schwerer getroffen als die Privatperson aber es wurde auch nachgewiesen das man z.B. durch manipulierte Websites die Exploits nutzen kann.

Den Firmen und RZ Betreibern tut es nur mehr weh wenn die Patches bis zu 50% Leistung kosten können, von daher schalten das eh schon viele ab.
 
sikarr schrieb:
sie sind nicht effizienter weil sie kein big.LITTLE verwenden sondern weil sie kein big.LITTLE verwenden? Deine Ausssage ergibt keinen Sinn.
Bitte auch richtig lesen und verstehen…

sikarr schrieb:
Das sind einfach nur mehr Kerne, mehr nicht. big.LITTLE muss auch das OS können um Sinnvoll genutzt werden zu können.
Wow, also exakt das, was ich wo anders geschrieben habe. Danke, dass du mir zustimmst
 
MichaG schrieb:
So sind Erweiterungskarten für den PCIe-Steckplatz zu erwarten, die mit „Barlow Ridge“ einen Thunderbolt-5-Controller mitbringen. Dieser wird aber nicht via PCIe 5.0, sondern via PCIe 4.0 x4 angebunden. Die 20 PCIe-5.0-Lanes von Arrow Lake sind nun einmal für GPU und Storage reserviert.
Hatte vollkommen übersehen, dass schon vor Monaten soviel über Barlow Ridge bekannt war. Wenn nicht wieder neue TB-Header auf den Mainboards nötig sind, könnte AIC mit BArlow Ridge auch in aktuellen Mainboards funktionieren. Aber hast Du das Blockbild gesehen? Dort wird der Barlow Ridge-Controller direkt an den 4 Gen4-Lanes der CPU angebunden.
Kann auch keiner verhindern, den PCIe-Lanes ist es egal, ob sie eigentlich für SSD gedacht waren. Nur müsste dann für AIC auch ein x4-Slot an der CPU hängen. Gerade bei Intel sehe ich aber dankt Gen4x8-DMI nichts, was gegen eine Anbindung am OCH spräche.
Conqi schrieb:
Und wie soll das gehen bei maximal 64 Gbit/s (brutto) über PCIe 4.0 x4? Selbst die synchronen 80 GBit/s funktionieren doch so nicht.
Ich kann schwer einschätzen, wie effektiv PAM-3 bei TB4 und USB4v2 gegenüber 128b/130b bei PCIe oder 64b/66b bei TB3/4 ist, aber zumindest eine Verdopplung ggü. TB3/4 sollte drin sein. Man darf nicht vergessen, dass alle TB3/4-Controller mit 40Gb/s auch nur mit Gen3x4 angebunden sind, tlw. Gen3x2.
Gen3x4 lieferte in der Realität maximal ~3.5GB/s, Gen4x4 demnach 7GB/s. 80Gb/s müssten theoretisch mehr sein, 120Gb/s erst recht.
USB4 mit 40Gb/s von Asmedia kriegt auch Gen4x4, USB3.2 Gen2x2 mit 20Gb/s Gen3x4, 25GbE und 40GbE gibt es nicht unter Gen3x8 (sind allerdings auch immer Controller mit zwei Ports). Keine Ahnung, warum man bei TB immer so knausert. Vielleicht weil die Schnittstelle in der Realität weit unter ihrem theoretischen Maximum bleibt. So werden wir aber immer vermuten, dass man sie künstlich beschneidet.
Donnidonis schrieb:
Sieht in der Grafik so aus, als ob die Daten der GPU direkt in den Chip geschoben werden, nicht über die PCIe Lanes. Dann wären die 64 Gbit/s rein für Daten zuständig und die DP Signale gehen direkt rein? Sonst geht es ja gar nicht eigentlich.
Das ist so, weil wie üblich das DP-Signal für die AIC per Kabel von der dGPU durchgeschleift wird. Da ist nix mit "Daten der GPU direkt in den Chip", der Chip kriegt das Bildsignal per DP und wird es unverarbeitet weiterreichen.
 
Ich habe so meine Bedenken, dass der Plan mit Arrow Lake-S im Desktop so aufgeht und Intel endlich mal wieder in Sachen Effizienz zu AMD wird aufschließen können.

Vielmehr beschleicht mich das Gefühl, dass das gegen Zen 5, Zen 5c und Zen 5 mit 3D V-Cache ganz böse für Intel aussehen könnte.

Ich hoffe es nicht und würde mich über einen echten Preiskampf und zwei schnelle Kontrahenten sehr freuen.

Allein der Glaube daran fehlt mir ein wenig.
 
  • Gefällt mir
Reaktionen: SVΞN
Galaxytourist schrieb:
Ich stelle hier einfach mal die steile These auf das der geneigte 0815 Anwender es überhaupt nicht merken wird ob die CPU Hyperthreading unterstützt, da die Grundleistung und Kernanzahl der heutigen CPU´s so hoch sind das es bei vielen Anwendungen und erst recht bei Spielen gar nicht mehr wirklich ins Gewicht fällt.
Bei Spielen war es bzw. ist es teiweilweise ja sogar hinderlich, wenn ich mich recht erinnere.
Bei 6P + 8E Cores, wenn die E-Cores dann bei Multithread 1/2 der Leistung bringen, macht sich Verzicht auf SMT/ HT zu etwa 1/2 von 30% bemerkbar, also -15% Leistung. Da hilft dann auch +5% Taktpotential nicht weiter.
Eigentlich hätte man trotzdem erwartet, dass HT dann einfach nach Anforderung der Software vom Windows nicht genutzt wird.

AMD hat zudem durchblicken lassen, dass der Mix aus P-Cores und E-Core nicht optimal klappt und man nur begrenzt solche Designs jenseits Mobilbereich vermarkten will.
 
@RKCPU
Ist halt auch die Frage inwieweit die Sprungvorhersage und das oOo Fenster verbessert werden.
Apples IPC Führung kommt nicht zuletzt dadurch, dass sie ihre vielen SIMD pipelines durch ein riesiges oOo Fenster auch ohne SMT gefüllt bekommen. Wenn Intel hier einen großen Sprung machen konnte, bringt SMT vielleicht auch einfach nur noch wenig Mehrwert, da die Pipelines bereits gut ausgelastet sind.
 
RKCPU schrieb:
AMD hat zudem durchblicken lassen, dass der Mix aus P-Cores und E-Core nicht optimal klappt und man nur begrenzt solche Designs jenseits Mobilbereich vermarkten will.
Das denke ich mir auch, für klassische PCs, Workstation und Server macht das kaum Sinn da die eh entweder gar keine Last haben oder möglichst stark belastet sind.

Im Mobilsektor ist das was anderes, hier geht es um Energiesparen um möglichst lange Laufzeiten zu haben.
Bei Meteorlake sind doch 2 der E-Cores nochmals als LowPower E-Core ausgelegt, sowas will im PC keiner haben :D
Trelor schrieb:
Wenn Intel hier einen großen Sprung machen konnte, bringt SMT vielleicht auch einfach nur noch wenig Mehrwert, da die Pipelines bereits gut ausgelastet sind.
Ich denke bei den kleineren Modellen werden sie bei HT festhalten, nur die größeren werden ohne HT kommen. HTT hat ja nie 100% Leistung gebracht, die doppelte Anzahl Cores aber schon, theoretisch zumindest ist auch alles doppelt vorhanden.

RKCPU schrieb:
Eigentlich hätte man trotzdem erwartet, dass HT dann einfach nach Anforderung der Software vom Windows nicht genutzt wird.
Windows verteilt die Threads auch primär auf echte Cores.
Intel versucht gerade alles mit Cores zu erschlagen, erst bekommt man nur Quadcores und jetzt kann man sich davor kaum retten. Was will ich mit 20 Threads wenn ich 8 kaum ausgelastet bekomme.
 
SVΞN schrieb:
Vielmehr beschleicht mich das Gefühl, dass das gegen Zen 5, Zen 5c und Zen 5 mit 3D V-Cache ganz böse für Intel aussehen könnte.

Ich hoffe es nicht und würde mich über einen echten Preiskampf und zwei schnelle Kontrahenten sehr freuen.

Allein der Glaube daran fehlt mir ein wenig.

falls zen5 wirklich so viel besser als arrow lake werden würde, würde amd mit völlig überzogenen preisen schon dafür sorgen, dass intel noch genug spielraum für die eigenen cpus hat. 330€ für 6 kerne und 450€ für 8 kerne sind bei amd kein novum. vorallem, wenn man das "gpu system" für cpus übernimmt, könnte es passieren, dass amd zen4 im markt lässt und zen5 nur oben drauf setzt mit "mehrleistung = mehrpreis". dann könnte der 8800X3D auch mal locker >500€ kosten.

amd verzögert ja jetzt schon den zen5 release - das ding hätte mittlerweile schon draußen sein müssen, damit amd die normalen 16 monate releasezyklus einhält. wenn zen5 erst in ein paar monaten kommt, sind wir bei fast 20 monaten. da wirds bis inklusive 2025 auch nix mehr mit zen6 auf am5.
 
RKCPU schrieb:
Bei 6P + 8E Cores, wenn die E-Cores dann bei Multithread 1/2 der Leistung bringen, macht sich Verzicht auf SMT/ HT zu etwa 1/2 von 30% bemerkbar, also -15% Leistung.
Ich hab ja nie geschrieben das es keine Leistung kostet. Ich hab ja nur gesagt das die meisten Anwender es nicht merken werden da die Grundleistung inzwischen schon entsprechend hoch ist. Die wenigsten nutzen Ihr System doch so das die CPU am Limit arbeitet.
 
angeblich arbeitet intel auch an einer alternative zu HT. SMT von amd ist nämlich auch effizienter bzw. "besser" als HT von intel.

es ist auch noch nicht wirklich klar, ob das fehlende HT nicht vielleicht an dem frühen silizium liegt.
 
  • Gefällt mir
Reaktionen: Smartbomb
sikarr schrieb:
Mich wundert nur wie die anderen CPU Hersteller das bei ihrem SMT schaffen?

Schaffen sie nicht. Derzeit sind alle CPUs mit spekulativer Ausfuehrung (auch ohne SMT) anfaellig fuer Spectre-Varianten, also in Servern, Desktops, Laptops, und Smartphones alle ausser Cortex-A53, A55 und A5xx (die haben keine spekulative Ausfuehrung). Da kann AMD noch so oft behaupten "wir halten es fuer unwahrscheinlich", am Ende zeigt sich, dass sie sogar fuer eine besonders perfide Variante namens "Inception" anfaellig sind.

Es kann aber auch sein, dass Intel SMT (alias HT) nicht aus diesem Grund weglaesst, sondern weil der Mythos, dass es mehr Leistung fuer ganz wenig Flaeche bringt (den Intel selbst in die Welt gesetzt hat), so nicht stimmt. Jedenfalls faellt auf, dass sowohl ARM, als auch Apple als auch die E-Core-Familie von Intel kein SMT hat; wenn SMT ein Feature mit so einem guenstigen Kosten/Nutzen-Verhaeltnis waere wie Intel es propagandiert hatte und dessen Echo wir hier zwei Jahrzehnte spaeter immer noch lesen koennen, haetten sie das sicher alle. Gerade die E-Cores, die ja vor allem fuer Anwendungen mit sehr vielen parallelen Threads nuetzlich sind, waeren ja dafuer praedestiniert, noch etwas mehr Threads fuer ganz wenig Extraflaeche zur Verfuegung zu stellen.
 
  • Gefällt mir
Reaktionen: maxrl, sikarr und Smartbomb
Nixdorf schrieb:
Das geht davon aus, dass die Zen4c-Kerne wie die Zen4-Kerne den maximalen Boost durchgehend halten können
Ein Detail auf den Produktseiten (z.B. 8500G) stellt dies infrage. Bei "Max Zen4c Clock" steht dies im "i":
Maximum Frequency of Zen4c cores. This frequency will only be observed with specific applications which prioritize a single thread onto the Zen4c core. In normal operating mode, Zen4c core frequency will be lower and will vary based on several factors, including, but not limited to, the number of threads executing.
Damit ist diese Angabe also darauf bezogen, dass ein Zen-4c-Kern der einzig aktive ist.
 
SVΞN schrieb:
Ich habe so meine Bedenken, dass der Plan mit Arrow Lake-S im Desktop so aufgeht und Intel endlich mal wieder in Sachen Effizienz zu AMD wird aufschließen können.

Vielmehr beschleicht mich das Gefühl, dass das gegen Zen 5, Zen 5c und Zen 5 mit 3D V-Cache ganz böse für Intel aussehen könnte.

Ich hoffe es nicht und würde mich über einen echten Preiskampf und zwei schnelle Kontrahenten sehr freuen.

Allein der Glaube daran fehlt mir ein wenig.
leicht upgegradete Architektur bei Intel die aufholen müssen bei der Effizienz vs komplett überarbeitete Architektur bei der Mannschaft die sowieso schon vorne war?

Da weiß ich worauf ich setzen würde.
20A wird ein Schritt vorwärts sein, aber noch nicht die benötigte Steigerung.
Außer Zen 5 enttäuscht überraschend bei IPC Zuwachs und Co. (wobei hier schon Zen 4 hinter den Erwartungen lag)
 
BAR86 schrieb:
20A wird ein Schritt vorwärts sein, aber noch nicht die benötigte Steigerung.
Ein neuer Prozess bringt erst einmal nicht mehr Performance, sondern (hoffentlich) geringere Leistungsaufnahme bei gleicher Performance, also eine höhere Effizienz. Es kann auch einen negativen Effekt hinsichtlich der maximal möglichen Takte geben, was bei Intel sowohl bei 14nm als auch der 10nm in der ersten Iteration der Fall war.

Nimmt man nur 20A für sich, kann Intel erst einmal nur das drängendste Problem der viel zu hohen Leistungsaufnahme bei Volllast angehen. Damit kommt man aber bei der Performance nicht voran. Aus dem Shrink ergibt sich natürlich die Option, mehr Transistoren zu verwenden, entweder für komplexere und somit performantere Kerne, oder für mehr Kerne. Damit frisst man dann aber die reduzierte Leistungsaufnahme wieder auf, außerdem steigen die Fertigungskosten in letzter Zeit stärker an als vorher, weshalb auf dem neuen Prozess ein Chip mehr kostet als ein gleich großer auf dem alten Prozess. Das wird also ein limitierender Faktor.

Also ja, die benötigte Steigerung kann nicht aus dem Prozess kommen, sie muss über die Architektur geliefert werden. Man kann nur hoffen, dass die Gerüchte von starkem IPC-Zuwachs bei Arrow Lake diesmal stimmen. Bei Meteor Lake blieb von großen Erwartungen am Ende ja nichts übrig.

BAR86 schrieb:
wobei hier schon Zen 4 hinter den Erwartungen lag
Zunächst einmal würde ich den größten Multi-Core-Performance-Zuwachs von einer Generation zur nächsten nicht als "hinter den Erwartungen" bezeichnen, sondern noch höhere Erwartungen zum Schämen auf die stille Treppe schicken.

Letztendlich lag Zen 4 am Ende im Ergebnis nicht hinter den Erwartungen, sondern die Gerüchteküche hat die falschen Schlüsse aus den geleakten Informationen gezogen. Zum einen hat man bei Indizien für viel höhere Pro-Kern-Performance sofort auf einen starken IPC-Zuwachs getippt, aber am Ende ist dann der Takt stark gestiegen, und der IPC-Zuwachs war diesmal eher moderat.

Zum anderen hat man Angaben zu Performance-Zuwächsen von +35% automatisch auch auf Single-Core bezogen. Im Ergebnis hat aber die Multi-Core-Performance überproportional zugelegt, und der 7950X hat den letzten Rest des Multi-Core-Zuwachses von +37% zum 5950X aus dem höheren Power-Limit geholt.

Insofern lag man mit diesen +37% durchaus genau da, wo die Erwartungen lagen. Aber beim Gaming waren es dann "nur" +23% vom 5800X zum 7700X. Und dann war da noch das Thema V-Cache, denn der 7700X lag in Spielen hinter dem 5800X3D, und Zen 4 mit V-Cache war zum Launch noch weit weg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und BAR86
duskstalker schrieb:
amd verzögert ja jetzt schon den zen5 release - das ding hätte mittlerweile schon draußen sein müssen, damit amd die normalen 16 monate releasezyklus einhält. wenn zen5 erst in ein paar monaten kommt, sind wir bei fast 20 monaten. da wirds bis inklusive 2025 auch nix mehr mit zen6 auf am5.
02.03.2017 Ryzen 1000 Zen 1
19.04.2018 Ryzen 2000 Zen 1+
07.07.2019 Ryzen 3000 Zen 2
05.11.2020 Ryzen 5000 Zen 3
26.09.2022 Ryzen 7000 Zen 4
Alles Links
Und wer nachrechnen will
13 Monate und 17 Tage.
14 Monate und 18 Tage
15 Monate und 29 Tage
22 Monate und 21 Tage

Zumindest ist klar und deutlich ersichtlich, deinen behaupteten Zyklus kennt AMD nicht.
Intel hatte doch den 12 Monate Rhythmus beschworen und eigentlich mit Alder und Raptor auch vollzogen. Doch schon mit Meteor ist dieses Haus wieder zusammengefallen. AMD hat keine Eile, weil es auch im mobilen Bereich genügt, Phoenix in Hawk Point umzubenennen und die neuronale Verarbeitungseinheit im Takt etwas zu erhöhen.
Im Mai wären wir bei 20 Monate. Somit könnte Zen 6 im November 2025 kommen, also 18 Monate nach Zen 5.

Du erzählt hier einen Zyklus den es nicht gibt, möchtest mit diesem nicht vorhandenen Zyklus es heute schon absegnen, dass Zen 6 deswegen nicht kommen könnte für AM5, obwohl es locker in deinen behaupteten Zyklus passen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
Nixdorf schrieb:
Also ja, die benötigte Steigerung kann nicht aus dem Prozess kommen, sie muss über die Architektur geliefert werden.
ich drücke mich manchmal ungschickt aus, aber dort wollte ich hin.
Neuer Prozess um den Anschluss bei der Effizienz zu finden, neue Architektur um mehr Performance zu bringen/den neuen Prozess auch richtig auszunutzen.
Wenngleich das beides in seiner Pauschalität nicht stimmt.
Weil es durchaus sein kann, dass beim Wechsel von "Intel 7" auf 20A/GAA/Backside Powerdelivery gleich mehrere Effekte gleichzeitig kommen, weil man 1 Node überspringt. Wobei 20A nur die Vorstufe von 18A ist.

Aber solange man nicht kräftig bei der Architektur umrührt (mehr Cache wird kommen, aber das ein ich damit nicht), wird man eben nur quf, nicht überholen
 
Zurück
Oben