News Kommt die „Intel-Desktop-APU“?: Gerüchte über Nova Lake mit 12 Xe3p-Cores im Desktop

EL-Xatrix schrieb:
ja und genau deswegen versteh ich nich warum die nicht schon früher etwas mit bissel mehr igpu leistung gebracht haben, durch die bessere ram geschwindigkeit kann die igpu da eigentlich mehr leisten wie auf den langsammer ram bei den amd apus...
Auch ohne explodierende RAM-Preise war schneller RAM immer unwirtschaftlicher. Eine dickere iGPU mit schnellerem RAM ist entsprechend immer schon vergleichsweise teuer und richtet sich an einen kleinen Kundenkreis, die mit kleinen iGPUs nicht auskommen aber nicht genügend Bedarf haben um eine dGPU zu rechtfertigen.
Das waren lange nur (mobile) Spielkonsolen, später Smartphones fürs Gaming und der kleine Hype mit dem Steamdeck. Die Versuche von Intel in diesen Bereichen waren immer teuer, aber wenig erfolgreich.

Naja und das Angebot von Intel eine "Gaming" APU zu etablieren wird mit den Treibern unattraktiv. Der Abstand ist zu groß egal ob Qualcomm, Nvidia, AMD(, Apple).
 
Irgendwie lustig, dass ausgerechnet bei Desktop APUs über AMDs Stillstand hergezogen wird.
Wann gabs noch zuletzt von Intel eine starke iGPU am Desktop? Ah stimmt, eigentlich noch nie. Die Versuche haben sich immer aufs Notebook beschränkt (Iris und jetzt wieder die letzten Jahre mit Xe)

AMD bedient den Markt also schon eine Weile recht halbherzig und bringt die Laptopchips verspätet im Desktop, während Intel den Markt bisher gar nicht bedient hat.

Jetzt stellt sich die Frage warum? Ist der Markt vielleicht doch nur eine winzige Nische? Außer ein paar Selbstschrauber sind doch kaum starke APUs in Desktop PCs verbaut, außer in Mini PCs (in denen erst wieder verlötete Laptopchips sind).

Intel bringt jetzt (vielleicht!) eine stärkere APU auf den Desktop, weils durch das Chiplet Design praktisch kein Aufwand ist. Kaum sinnvoll, da jetzt groß etwas hineinzuinterpretieren, schon gar keinen Abgesang auf AMD...
 
CadillacFan77 schrieb:
Panther Lake ist etwa doppelt so schnell wie die kleine Radeon 890m.
Das ist eine ganz andere iGPU als die 8060S. 8060S ist noch deutlich schneller als die B390.
Es sind knappe 40%, die die 8060S schneller ist. Bei 66% mehr ALUs und doppeltem Speicherinterface. Darauf wollte der Kommentar wohl hinaus. Xe³ ist als Arch offensichtlich besser als RDNA3
 
Ohne DDR6 in 192 Bit CAMM2 bringt mehr 3D Hardware nichts.
Aber auch mit Faktor 2,5 fach schnelleren RAM wird gutes AI Upscaling nötig um brauchbare Ergebnisse via APU zu liefern.

Schon der Rembrand mit 12 CU RDNA 2 überforderte den 128 Bit DDR5 Anschluss.

Allerdingst wäre es sinnvoll performante iGPUs statt Einsteiger GPUs zukünftig zu nutzen.
 
Bei allem Enthusiasmus für AMD, aber hat schon mal jemand einen AMD Ryzen AI Max+ in einem Desktop-PC gesehen? Ich kenne da nur Notebooks und einige Mini-PCs mit Notebooktechnik.

Und um Desktop-PCs geht es hier ja doch wohl, weil Intel derzeit vermutlich eine Desktop-CPU mit einer sehr starken iGPU aus einer Notebook-CPU entwickelt. Und hiermit in eine Marktnische vorstoßen würde, die AMD heute mit ihren alten G-APUs bevölkert.
 
Zuletzt bearbeitet:
SuperHeinz schrieb:
Bei allem Enthusiasmus für AMD, aber hat schon mal jemand einen AMD Ryzen AI Max+ in einem Desktop-PC gesehen? Ich kenne da nur Notebooks und einige Mini-PCs mit Notebooktechnik.
Wenn du einen Weg findest, ein Vierkanal-Speicherinterface auf einen AM5-Sockel zu bekommen, nur zu!
Es gibt zwei denkbare Wege, einen Halo in einen Desktop zu bekommen:

a) Du schraubst dir ein Board mit dieser verlöteten CPU in deinen Desktop. (Zumindest von Framework gibt es lose ITX-Boards; die passen auch in Desktopgehäuse) - geht also schon jetzt.

b) AMD bringt einen Strix Halo für Sockel sTRX5, der hat vier Speicherkanäle - allerdings wäre die CPU mit ihren doch recht wenigen freien PCIe-Lanes auf einem Threadripperboard nicht wirklich sinnvoll.

Sobald du der CPU ihre Speicherkanäle wegnimmst, bekommt die Grafikeinheit deutliche Probleme mit dem Speicherdurchsatz.
 
Und das erklärt jetzt, warum es Stand heute noch keinen AMD Ryzen AI Max+ in einem Desktop-PC gibt?
Es gibt ihn also nicht, weil es ihn nicht gibt? Tolle Logik!
 
@SuperHeinz Nein. Ihr redet nur aneinander vorbei.
Er dachte, deine Frage sei ernst gemeint und du, es si offensichtlich worauf du hinauswillst.
 
dem aktuellem sockel fehlen die pins umm das alles ansteuern zu können...oder anders gesagt die sind falsch belegt, am desktop hast du die pcie lanes um die grafikkarte zu bedienen die nen großteil davon fressen...die kannst aber auf dem sockel nicht einfach als extra kanäle zum ram umlegen...kann man machen dan brauchst aber neue mainboards, idealerweiße neuen sockel damit nich irgendnen drops da ne normale cpu in des sockel steckt und schreit das geht nich...
über sowas wie intels sockel 2066 oder amds tr4 würde das gehn die sind aber nur ddr4...das wollt ihr dann auch nicht ;)
mit ddr5 sind wir bei strx5 aber da hat amd auch noch keinen strix halo für rausgebracht....

ich meine wenn du 500€+ für das board zahlst nochmal mindestens soviel für den ram und kein plan vermutlich nicht weniger wie nen tausender für das halo produkt kannst dir auch nen passendes notebook kaufen...
 
BAR86 schrieb:
Ich korrigiere nur gerne falsche Behauptungen. Quasi Fake News.
Es wird ständig unter Intel News von denselben Leuten die Aussage getätigt, dass Intel mit der Stichelei auf die Nase gefallen ist.
Und ständig muss man diesen Menschen erklären, dass das ja nur die Retourkutsche von Intel war und eigentlich AMD sich hier zuerst lächerlich gemacht hat.
Aber auch wenn man es mit Quellen und Links belegt, dieselben Herren behaupten es in 3 Monaten wieder falsch
Man sollte aber auch in den Kontext nicht vergessen in denen die Aussage(n) gefallen sind.
Intels Kritikpunkt war eindeutig: "desktop dies glued together" im Kontext von Epyc Server CPUs. Um auf in Summe 32C zu kommen, gab es 4x8C dieser Desktop Dies, inkl. aller Nachteile aus so einem Konstrukt wie Bandbreiten/Latenznachteile zwischen den Dies und 4x NUMA Nodes pro CPU.

Das permanente Rumreiten auf nur dem hinteren Teil der Aussage ist eigentlich ziemlicher Quatsch, weil der Kontext fehlt. Zudem der Kritikpunkt nicht mal falsch war, denn AMD hat das Konzept der geklebten Desktop Dies auch nur für eine Zen Generation samt seichten Refresh verwendet und ab Zen2 eben den heute noch im Einsatz befindlichen MCM Ansatz gefahren. Weiterhin sei angemerkt, dass das Kleben von den Desktop Dies letztlich für AMD auch nicht neu war - in der Zeit als Eypc und Ryzen 1st Gen. quasi die Türöffner für AMD waren um überhaupt zurück in den Markt einzusteigen hat man so günstig wie möglich maximale Möglichkeiten mitgenommen. Und was lag da näher als den Ansatz zu nutzen, den man Jahre vorher mit Sockel G34 Opterons ebenso schon, wenn auch aufgrund der selben Nachteile! eher wenig erfolgreichem Ansatz nutzte?

Die Geschichte ist hier weit weniger dramatisch als die Lager-Fans es immer wieder betonen. Selbst das Retourkutschen-Argument ist eher quatsch. Denn es gab zu der Zeit von Intels Aussage eben eklatante Nachteile und die lassen sich wahlweise einfach wegingorieren - oder addressieren. Am Ende hat AMD den Ansatz sehr schnell wieder zugunsten einer quasi fast Nachteilsfreien MCM Version verworfen. Und das ist das eigentlich wichtige - die Produkte sind gut wie sie sind. Was die 1st/2nd Gen TR und Epyc aufgrund einiger Nachteile eben nicht wirklich waren.
Philste schrieb:
Nichts von diesem Artikel und dem vorherigen ist offiziell. Es ist nur so, dass AMD zum Beispiel deutlich zurückhaltender ist, was Infos an Partner angeht. Intel hat halt die Mentalität, die Partner schon Monate vorher mit Infos zu allem möglichen zu versorgen.
Das ist mMn quatsch, weil das hat nichts mit "zurückhaltender" zu tun. Intel hat ein viel größeres Publikum. Sie addressieren einfach mehr "Partner" und irgendwer quatscht halt. Wenn du weniger breit bei den OEMs vertreten bist, dann ist das halt auch etwas einfacher da die Finger drauf zu haben.
Philste schrieb:
AMD hat da mehr Kontrolle, aber es führt auch zu holprigen Launches wie bei ZEN5 oder Mainboards, die X3D CPUs grillen, weil die Absprache zwischen AMD und Partnern nicht sooo gut ist.
Auch bei Intel gibt es sehr holprige Starts bzw. Dinge die während der Zeit erst gefixt werden. Ich denke da bspw. an die 13/14th Gen von wegen CPU sterben. Das kann man schwer in einen Zusammenhang stellen.
Faktisch ist es eigentlich egal - am Ende entscheidet wie gut/schlecht die Produkte zum Start sind, wohl viel eher, wie viel Zeit man in die Feinabstimmungen vorher steckt. AMD im Zugzwang mit der Rückkehr in den Markt ab 2017 hat da halt zeitlich auch vielleicht weniger Anspruch (gehabt). Vor allem weil es am Ende nicht 100% entscheidend ist und war, ob man ab Start das perfekte Produkt liefert sondern man will und wollte mittel- und langfristig die Kunden haben.

SuperHeinz schrieb:
Bei allem Enthusiasmus für AMD, aber hat schon mal jemand einen AMD Ryzen AI Max+ in einem Desktop-PC gesehen? Ich kenne da nur Notebooks und einige Mini-PCs mit Notebooktechnik.
Definiere Desktop? Es gibt da schon ein paar - vor allem bei Firmen aus China und auch die Firma Framework bietet die Teile an.
Das Ding dabei ist halt, sowas wirst du nicht als gesockelte Version für DIY Desktop PCs auf Mainboards der üblichen privat Endkunden OEMs sehen, weil der RAM eben verlötet ist und damit das auch performant bleibt, eben auch LPDDR irgendwas sein muss. Klar kann man sowas technisch mit CU-DIMM oder ähnlichen schnellen Modulen kombinieren, Aber Framework zum Beispiel gab dem eine Absage, weil es nicht funktioniert hat und es sich nicht hindrehen ließ. Also mussten sie fest verlötete LPDDR5X Speicher Chips nutzen.

Es kann sowas also nur in Desktop PCs von OEMs geben, die fertig PCs anbieten. Wie Framework. Weil verlötete CPU und verlöteter Speicher fest auf einem Board bedeutet keinerlei Anpassungsoption mehr. Im Desktop ist sowas halt unpraktisch, da die Kombination aus CPU + Board + RAM + dGPU flexibler und letztlich schneller ist.

Mal gucken wie das perspektivisch bei Intel aufgeht, aber wahrscheinlich wird der Support für schnellere Speicher einfach direkt vorgesehen und damit dürfte das dann auch kein Problem darstellen - anders als bei den Ryzen CPUs. Aber in Nachfolgern könnte sich das auch ändern... Das dort nur 128Bit breite Speicherinterface kommt natürlich noch dazu - anders als beim AI Max Ryzen, der mit 256Bit auf nem regulären AM5 Board auf die halbe Bandbreite verzichten müsste. Oder man dafür nen dedizierten Sockel erfinden müsste. Die Version für Threadripper hat zwar 256Bit in der Breite, aber keine Grafik Ausfänge, also auch unpassend.
SuperHeinz schrieb:
Und um Desktop-PCs geht es hier ja doch wohl, weil Intel derzeit vermutlich eine Desktop-CPU mit einer sehr starken iGPU aus einer Notebook-CPU entwickelt. Und hiermit in eine Marktnische vorstoßen würde, die AMD heute mit ihren alten G-APUs bevölkert.
Das sind halt am Ende immernoch zwei paar Schuhe. Je nach CPU Teil kann der Vergleich ggf. auch drastisch zugusten der eine oder anderen Seite ausfallen.

MMn ist der APU Markt sowieso bisschen komisch, weil irgendwie der allgemeine Tenor ist, ne starke GPU nur mit einer starken CPU kombiniert zu bekommen. Selten gibt es viel CPU bei halbwegs viel GPU oder viel GPU bei kleiner CPU.
Zudem "viel" in dem Zusammenhang absolut immernoch wenig ist. Mal von Strix Halo abgesehen, so liefert die neueste IGP oder APU bei AMD immernoch nicht wirklich viel GPU Leistung.
 
Zuletzt bearbeitet:
fdsonne schrieb:
Man sollte aber auch in den Kontext nicht vergessen in denen die Aussage(n) gefallen sind.
Intels Kritikpunkt war eindeutig: "desktop dies glued together" im Kontext von Epyc Server CPUs. Um auf in Summe 32C zu kommen#
ja während Intel versucht hat das monolithisch zu lösen. Schon klar.
Aber mir gings auch nicht um die Details. Mir geht es darum, dass unter jeder Intel News sowas kommt und dabei einfach ausgeblendet wird, dass die Aussage einfach nur zurückgespielt wurde.

fdsonne schrieb:
denn AMD hat das Konzept der geklebten Desktop Dies auch nur für eine Zen Generation samt seichten Refresh verwendet und ab Zen2 eben den heute noch im Einsatz befindlichen MCM Ansatz gefahren
Auch intel verwendet eigentlich einen anderen Ansatz als AMD. Am ehesten entspricht Intels Core 2 Quad Ansatz noch eher dem von Zen während wir uns bei heutigen Multichip(let) Designs vom Packaging her schon deutlich entfernt haben von diesem Ansatz.
Also ob man hier noch von "zusammengeklebt" sprechen kann... wobei: genauer gesagt waren sie DAMALS eben nebeinander geklebt und heute zusammengeklebt/geschweißt.
fdsonne schrieb:
Die Geschichte ist hier weit weniger dramatisch als die Lager-Fans es immer wieder betonen.
man vereinfacht halt gerne. Das ist generell eine menschliche Eigenschaft.
So wie hier oft "Lisa Su" als die Retterin von AMD gefeiert wird. Oder Jim Keller als der Vater von Zen (der sehr wenig mit der eigentlichen Architektur zu tun hatte). Oder Koduri als der doofe bei AMDs GPU Abteilung.
Und überhaupt gerne gut (AMD) gegen Böse (Intel).
fdsonne schrieb:
Selbst das Retourkutschen-Argument ist eher quatsch. Denn es gab zu der Zeit von Intels Aussage eben eklatante Nachteile und die lassen sich wahlweise einfach wegingorieren - oder addressieren. Am Ende hat AMD den Ansatz sehr schnell wieder zugunsten einer quasi fast Nachteilsfreien MCM Version verworfen.
ist sie nachteilsfrei? Die Latenzen sind teilweise deutlich bemerkbar je nach Aufgabe und die Kommunikation verbrädt nicht wenig Strom. Anandtech hatte dazu mehrere Artikel, dass bei den größeren AMD CPUs mit 16+ Kernen (Threadripper) ein großer Teil des Power-Budgets rein auf die Kommunikation entfällt.
fdsonne schrieb:
Und das ist das eigentlich wichtige - die Produkte sind gut wie sie sind
das ist korrekt. Es kümmert den Enduser natürlich nicht, warum eine CPU gut ist. Soll es auch nicht.
Es ist nur für uns "Nerds" technisch spannend
 
lordlaschi schrieb:
Als APU hätte der Chip dann zwar mehr Spielraum bei Verlustleistung, aber die Speicherbandbreite wird ja eher geringer ausfallen als bei den verlöteten RAMs im Notebook (LPDDR5X-9600). Das ist ja oft der limitierende Faktor von iGPUs. In der Summe würde ich also nicht erwarten, dass die APU schneller wird als das was wir aktuell im Notebook sehen.

Die Speicherbandbreite ist zwar wichtig, aber auch nicht die einzige Metrik. Das lässt sich mit einem größeren GPU Cache kompensieren, oder mit einer effizienteren Architektur. Wir wissen noch nicht, wie viel besser die Xe3p Architektur werden soll. Auf dem Desktop gibt es ein paar Vorteile mit der power oder der Speicher Latenz.
 
DevPandi schrieb:
Es ist ein spannendes Thema und ich könnte hier einen ganzen Roman dazu schreiben.
Worauf wartest du? :D
Aber ganz im Ernst, ein (größerer) Artikel zu diesem Thema fände ich sehr spannend. Mich würden zwei Varianten interessieren, sowohl als reiner Kommentar als auch eine entsprechende Recherche, oder auch eine Kombination von beidem.

Gohma schrieb:
Wäre also wieder nur eine weitere Distro was viele ja so sehr kritiesieren.
Nun ja, eine eigene Distro wäre schon notwendig. Ich weiß nicht, was es alles für Möglichkeiten gibt, um die Software-Auswahl zu limitieren, oder spezielle Konfigurationen von bestehenden Distros zu verwenden. EU-OS als proof-of-concept schlägt Fedora Kinoite vor. Einerseits IMO pragmatisch vielleicht die beste Grundlage, andererseits dennoch das Community-Projekt unter Red Hat, also IBM, und das ist amerikanisch.

meckswell schrieb:
Ich denke jetzt 5600/12400F is die cpu-seitige Untergrenze. Könntet ihr da mitgehn, oder andere Erfahrungen gemacht?
Für was genau? Das hängt immer noch stark von der Auswahl der Spiele, dem Budget und dem Alter der Hardware ab.
Auf dem Steam Deck laufen immer noch die meisten Spiele auf einem kastrierten Zen2. Ein Ryzen 5 3600 ist (deutlich) schneller und kann auch heute in den meisten Spielen 60 fps liefern, PS5 (Pro) ahoi.

Crifty schrieb:
Wie wäre es mal ganz nüchtern mit Produkte rausbringen und fertig? Dagegen sind selbst Nvidia und AMD eher zurückhaltend, aber hey kann auch nur meine Wahrnehmung sein.
Intel hat doch schon Panther Lake herausgebracht. Der Release von Celestial Grafikkarten wird heiß erwartet, ich weiß nicht, was du dir alles vorstellst, aber gut Ding braucht Weile.

EL-Xatrix schrieb:
ja und genau deswegen versteh ich nich warum die nicht schon früher etwas mit bissel mehr igpu leistung gebracht haben
Wozu? Die früheren Architekturen vor Xe2 hätten keine Vorteile gebracht.

crustenscharbap schrieb:
XE3 ist ja trotz deutlich geringerer RAM bandbreite fast so schnell wie die Radeon 8060S.
Das hängt stark von der TDP ab. Aber den B390 kann man wohl grundsätzlich als effizienter bezeichnen. Unter 30 W TDP kann Panther Lake sogar schneller als Strix Halo mit dem 8060S sein.
Wenn RDNA5 dieselbe Entwicklung in der Effizienz erfährt, wird das sehr interessant.

CadillacFan77 schrieb:
Das ist eine ganz andere iGPU als die 8060S. 8060S ist noch deutlich schneller als die B390.
Wie gerade geschrieben. Wenn man die 8060S in einem TDP-Rahmen verwendet, der sinnvoll für diese iGPU ist, sieht die B390 kein Land. Es kann aber auch Gründe geben, auch einen Strix Halo mal mit wenig TDP zu betreiben und dann wird es interessant. Wieso man jedoch ein Strix Halo Modell kaufen sollte, das nicht über 35 W gehen könnte, steht auf einem anderen Blatt ...
 
EL-Xatrix schrieb:
ja und genau deswegen versteh ich nich warum die nicht schon früher etwas mit bissel mehr igpu leistung gebracht haben
Weil das nicht der Fokus war?

Vielleicht hat sich die Einstellung etwas geändert nach den Arc-Grafikkarten.

Auch wenn die iGPU in den 9000er-CPUs sehr schwach ist begrüßte ich das ich ein AMD-System für Non-Gamer zusammenbauen konnte ohne sowas wie ne GT1030 reinzuhängen
 
peru3232 schrieb:
Hmmm, ich dachte es setzt LPDDR (mit ordentlichem Speed) voraus. Wenn es also mit normalen UDIMM auch klappen sollte, ist die Frage wieso es denn nun bei Laptops anscheinend nicht geht.
Weil man kein großen Cache hat, braucht man schnellen RAM. Wenn Intel da einen großen Cache oder sogar ein HBM Stack mit einbaut, dann kannst du JEDEC 5600 fahren und hast kaum Einbußen, sowie es mit X3D CPU's auch ist.
 
Das klingt vielversprechend für meinen Anwendungsfalls. Wenn ich dann dadurch zukünftig meine dGPU weglassen könnte, wäre das ein Träumchen. Ich bin aber auch auf die Kooperation mit NVIDIA gespannt, was da mit den GPUs dann rauskommt.

EL-Xatrix schrieb:
wie war doch gleich die aussage von intel als amd chips zusammenkleben wollte?
Wobei das damals AMD auch gesagt haben sollte. Leider finde ich keine genaue Quelle dazu. Bei pcper wurde 2006 dieses geschrieben:

So, as many have said, including AMD, Intel’s Kentsfield processor is two dual core processors “glued together” and seems somewhat un-elegent.
 
Deinorius schrieb:
sinnvoll für diese iGPU ist
diese iGPU?

Ich würde das eher auf iGPU im allgemeinen beschränken. Eventuell noch auf Desktop iGPU und Mobile iGPU, aber im Mobile säuft die 8060S viel zu viel.
 
BAR86 schrieb:
ja während Intel versucht hat das monolithisch zu lösen. Schon klar.
Aber mir gings auch nicht um die Details. Mir geht es darum, dass unter jeder Intel News sowas kommt und dabei einfach ausgeblendet wird, dass die Aussage einfach nur zurückgespielt wurde.
Das verstehe ich mit den "Details" - im Zusammenhang ist das aber durchaus wichtig. Weil der Kritikpunkt zumindest seitens Intel kein allgemein "gegen das Kleben" Punkt war, sondern im Kontext Server CPU mit eben den Nachteilen - die in der Präsentation sogar lang und breit aufgezählt und durchgekaut wurden - doch schon stark eingegrenzt wurde.

Zudem auch gar nicht das monolithisch oder nicht Thema entscheidet. Aktuell hat AMD ja auch kein monolithisches Design und die Nachteile quasi fast nicht. Das Ding ist eher, dass Intel zu der Zeit auch in der Lage war, ein 8x NUMA Design zu liefern - nämlich in Form von bis zu 8x 28C CPUs. Während der AMD Ansatz bei eben 2x4 NUMA Nodes = 2x 32C Schluss machte. Das ist/war letztlich das selbe technische Konzept, eine Gruppe von CPU Cores mit einem Teil des Memorys zu koppeln und von diesen Inseln bis zu 8x in einem System zu verbauen.
Technisch war das aber nie gut - auch bei Intel nicht. Die 4P und 8P Server waren bis auf manche Szenarien einfach keine gute Wahl.
Das geht letztlich weit über das "kleben" hinaus, weswegen der Kontext eben wichtig ist.
BAR86 schrieb:
Auch intel verwendet eigentlich einen anderen Ansatz als AMD. Am ehesten entspricht Intels Core 2 Quad Ansatz noch eher dem von Zen während wir uns bei heutigen Multichip(let) Designs vom Packaging her schon deutlich entfernt haben von diesem Ansatz.
Auch nicht. Pentium D und Core2Quad sowie auch die eher unbekannten Modelle - es gab Hexacore Core2 based Xeon MP Versionen bspw. hatten durch den FSB eine ganz andere Voraussetzung.

Man könnte sogar eher sagen, dass AMDs MCM Ansatz heute vergleichbar mit dem damaligen Pentium D/Core2Quad Ansatz ist. Warum? Weil der Teil der den Memory verwaltet (die ehemalige Northbridge) quasi heute der IO Die bei AMD ist. Wenn mich nicht alles täuscht gab es mal ein Design nach Core2 und vor Sandybridge - keine Ahnung mehr wie sich das nannte, wo eine Northbridge (IO, Speicher und dergleichen) extern auf dem selben Träger wie der Compute Die und ich meine sogar ne externe iGPU verbaut wurde.

Was sich zu heute effektiv geändert hat ist der Link zwischen diesem IO Part und dem eigentlichen Compute Chips. Heute sind das P2P Verbindungen. Früher war das ein Bus. Bzw. in größeren Ausführungen in den Server Modellen auch mehrere dieser Bus Systeme um die Bandbreite zu erhöhen.

Eins hatten die damaligen geklebten Intels mit den heuten MCM AMDs aber gemein - und das ist der Single NUMA Node. Also sozusagen ein UMA Design.
Zen1 und Zen+ Epyc und TR Modelle hingegen waren nie Single Node NUMA. Sondern effektiv ein Multi Node NUMA Ansatz.
BAR86 schrieb:
ist sie nachteilsfrei? Die Latenzen sind teilweise deutlich bemerkbar je nach Aufgabe und die Kommunikation verbrädt nicht wenig Strom. Anandtech hatte dazu mehrere Artikel, dass bei den größeren AMD CPUs mit 16+ Kernen (Threadripper) ein großer Teil des Power-Budgets rein auf die Kommunikation entfällt.
Deswegen sagte ich ja, "quasi fast nachteilsfrei". Es hat natürlich auch Nachteile. Aber die sind ggü. den NUMA Nachteilen vergleichsweise klein. Zudem das Design ja auch nie breiter werden kann, ohne irgendwo Nachteile zu haben. Auch Intels damaliger monolithischer Ansatz war mit dem Mesh Unterbau Nachteilbehaftet, weil die Latenzen innerhalb des Meshs je nach dem von welchem Core zu welchem Core oder zu welcher Komponente stark schwankten. Einfach aufgrund der "Entfernung".

Am Ende ist es ein Kompromiss. Es gibt physische Limits in der absoluten Die Größe - und wenn man mehr Bumms will, muss man sehen wie man diese Limits einhält und trotzdem "größer" baut. Per NUMA Node Skalierung geht das günstig und schnell ohne großen Aufwand bei deutlichen Nachteilen. Andere Ansätze sind da besser geeignet. Setzen sich dann aber auch nicht in jedem Szenario deutlich ab. Gerade dort wo man gut mit NUMA Nodes skaliert, hat der heutige Ansatz keine großen Vorteile.
 
darth_mickrig schrieb:
Intel waren doch die Original-Kleber. Sowohl der Pentium D als auch Core 2 Quad sind zusammengeflanschte CPUs.

Als ob sich Personen für Fakten interessieren, die von Firmen so reden, als wären es Personen. 😉

Da hat mal irgendjemand beim Marketing oder ein Manager etwas abgesondert … der vermutlich schon lange nicht mehr dort arbeitet … was spielt das für eine Rolle?

Davon abgesehen … APU? Dieser Marketingbegriff ist doch schon lange überflüssig!
Heute ist so viel in einer CPU drin, was früher externe Chips waren … unter anderem auch in mehrfacher Ausführung das, was früher CPU hieß.
Und da GPUs schon einige Zeit mehr machen als nur Grafik…
 
Zuletzt bearbeitet:
Zurück
Oben