News Nächste AMD-APU: Renoir mit LPDDR4X-Support und neuer Display Engine

Glaub ich eher nicht, Zen1 wieder in 12nm wäre doch dann kaum ein Vorteil gegenüber Picasso.
Davon hat doch niemand etwas.
 
  • Gefällt mir
Reaktionen: bensen
Redirion schrieb:
da die APUs bisher vor allem das untere Preisende abdecken, glaube ich nicht, dass sich ein komplettes Chiplet-Design wirklich rechnet.
Deshalb denke ich eher an Variante 4: monolitisch 7nm.
Bringt gegenüber 12nm eine ordentlichen Energieeinsparung oder einen Performance Schub.
Der Chip sollte nicht allzu groß werden und läßt sich auch noch in salvage Versionen mit 2 Cores 3 CU verkaufen, wodurch der Yield ziemlich gut werden dürfte.

Für Vega stehen ausgereifte Treiber bereit.
Optimal als Upgradepfad für embeddeb und OEMs um ohne viel Aufwand bestehende Disigns aufzuwerten.

Möglich wäre ja noch die Integration eines IF um ein Chiplet anzuschließen und somit MCM APUs mit bis zu 12 Cores zu realisieren.

Ende 2020 dann das ganze noch mal ohne großen Aufwand in 6nm.

Für AMD geht es nicht um kleine Gaming APUs. Es geht um günstige und effiziente Lösungen für embedded und Mobile.
 
  • Gefällt mir
Reaktionen: bensen, Dittsche, Obvision und 2 andere
amdfanuwe schrieb:
Deshalb denke ich eher an Variante 4: monolitisch 7nm.

Dann hätten die preiswertesten Prozessoren den größten Einzel-DIE im teuren 7nm-Verfahren. Naja wir dürfen gespannt sein, was es wird :)
 
  • Gefällt mir
Reaktionen: Transistor 22, Vorgartenzwerg, Ned Flanders und eine weitere Person
Wann wurde denn das letzte mal überhaupt zwei Fertigungsverfahren auf einemeinem Chip angewendet?
Kann mich da nur an einen Savage Grafikchip erinnern.
Ergänzung ()

Redirion schrieb:
...
größten Einzel-DIE
...

Und, die sind ja nicht umsonst zu dem neuen Aufbau gegangen.

Wenn man bedenkt, das erst nächstes Jahr die neuen Konsolen SoCs kommen, wäre eine Vega immer noch denkbar.
 
Redirion schrieb:
Dann hätten die preiswertesten Prozessoren den größten Einzel-DIE im teuren 7nm-Verfahren.

Kommt halt drauf an wie deutlich die im Notebook Segment angreifen wollen. 7nm wären da sicherlich sparsam und die preise höher. Andererseits heißt der Konkurent da eben auch Sunny Cove und das ist ein anderer Gegner.
 
  • Gefällt mir
Reaktionen: bensen
@Ned Flanders
das Problem wäre dann aber, dass AMD um niedrigen Preissegment nur mit der alten Hardware aufgestellt wäre. Das wäre lediglich ein Angriff in einem Nischenmarkt. Das kann sich AMD nicht leisten.
 
  • Gefällt mir
Reaktionen: Ned Flanders und AssembIer
Redirion schrieb:
Außerdem hat AMD hat das IO-Chiplet vor allem damit begründet, dass die 7nm-Fertigung so teuer sei und IO nicht gut mit der Fertigung mitskaliert. Das passt nicht zusammen.
AMD hat aber auch immer gesagt, das sie bei 7nm "All In" gehen

Vielleicht Stapeln sie ja auch und kommen Chipzilla sogar noch zuvor?
Obwohl ich mir das im Moment noch nicht wirklich Vorstellen kann, aber wer weiß???
Bei AMD wundere ich mich so langsam über gar nichts mehr.
 
  • Gefällt mir
Reaktionen: dalaidrama, amdfanuwe und Redirion
Redirion schrieb:
Dann hätten die preiswertesten Prozessoren den größten Einzel-DIE im teuren 7nm-Verfahren.
Wie teuer ist denn 7nm?
Nach dem, was ich bisher gelesen habe dürfte Renoir in 7nm kaum teurer sein als Picasso in 12nm.
Also ca. $20 - $30 als Größenordnung.
Dafür wird er aber wesentlich geringeren Energieverbrauch bei gleicher Leistung haben und somit teurer im Verkauf sein.
So lange Gewinn rauskommt sind die Prozesskosten doch egal.
 
  • Gefällt mir
Reaktionen: bensen und Township_boy
ich hoffe auf 4 Monologisch 7nm mit 4 zen2core und max 8cu GPU sowieLPDDR4-x support min 3200 das reicht um intel locker zu schlagen. und kommt der Die größe und kosten auch zu gute

später dann einen 4600G mit normalem zen2 8 core und kleine separater NAVI 12-16cu GPU im chiplets Design
die könnte man im 45w Notebooks sowie allen desktops verbauen
 
AMD soll einfach hingehen und den APUs 2-4 GB HBM2 spendieren (Je nach Leistungsfähigkeit der APU).
Und endlich eine APU rausbringen mit 8 Kernen / 16 Threads und ner geilen integrierten Grafik.
 
ich gehe mal ganz stark davon aus, dass das Design mit den kleinen Chips beibehalten wird. Die APUs haben die geringsten Margen, aber dafür Masse. Da aber jetzt einen mindestens doppelt so großen 7nm Chip draufzupacken, das ist mutig.
Eher kommt. 12nm IO-Die (kennt man ja schon und ist fertig entwickelt), ein 8-Kern Die in 7nm und dann noch ein Vega-Die. Dieser dann möglicherweise in 7nm.
 
D0m1n4t0r schrieb:
AMD soll einfach hingehen und den APUs 2-4 GB HBM2 spendieren (Je nach Leistungsfähigkeit der APU).
Da meines Wissens HBM-Speicher relativ teuer ist, kommt das erstmal nicht in Frage, da dadurch der Preis der APU explodieren würde.
 
@-Ps-Y-cO-

Eine APU auf 7nm Prozess wird aufgrund der hohen Schaltkreisintegration, im Bezug auf die verfügbare DIE Fläche, sehr kompliziert in der Kühlung.

Gerade bei der aktuellen "mittelstands", Navi Serie (Navi 10 / RX5700 / RX5700XT) zeigt sich das bereits, gerade recht gut.

Daher denke ich, dass es nicht das "Wollen" ist, oder ums "Wollen" geht, sondern eher technische Grenzen, diese obliegend von Leistung vs Kühlung vs Anwendungsgebiet vs Kosten, dafür verantwortlich sind, einen möglicherweise limitierenden Faktor darzustellen.

Ich bin dennoch sehr gespannt, wie die Entwickler dieses Konstrukt in Zukunft angehen werden und was dann letztendlich für Produkte den Markt ereichen und ob sie dann auch "sinnvoll" sind...
 
Ein wenig ernüchternd und man darf dann wohl wieder auf den Renoir Nachfolger hoffen, bis dann evt. Navi/RDNA1 auch Einsatz bei den APUs finden wird.

Auch wenn man sicherlich mit Vega durch den Shrink auf 7nm Fertigung gut zulegen dürfte, so dürfte es schwer(er) werden im Mobil-Chip-Bereich Intel in größerem Maßstab Marktanteile abzunehmen, da dort Intel wohl jetzt schon noch mit 10nm Ice Lake sowie verbesserter integrierter G-Grafik und kommendes Jahr dann Tiger Lake plus integrierter Xe-Grafik im Anmarsch sein wird (wogegen Renoir mit Vega in 7nm TSMC - vermutlich zum Jahreswechsel hin erscheinenden - dann ab Mitte 2020 relativ alt aussehen könnte/dürfte).

In jedem Fall sollte man preislich (preis-leistungs-technisch) mit einer Vega-APU aber konkurrenzfähiger bei AMD gegenüber Intel sein als mit einer teureren Navi/RDNA1-APU (bis es RDNA2 im APU-Bereich gibt - falls überhaupt - wird es noch relativ lange dauern, denke ich 'mal).
 
Zuletzt bearbeitet:
NMA schrieb:
@-Ps-Y-cO-

Eine APU auf 7nm Prozess wird aufgrund der hohen Schaltkreisintegration, im Bezug auf die verfügbare DIE Fläche, sehr kompliziert in der Kühlung.

Gerade bei der aktuellen "mittelstands", Navi Serie (Navi 10 / RX5700 / RX5700XT) zeigt sich das bereits, gerade recht gut.

Hier muss man aber ganz klar zwischen Verbrauch und Chipfläche unterscheiden. Eine verlötete Monbil-APU wird nicht unwesentlich kleiner sein, hat jedoch nur einen Bruchteil der TDP eines Navi 10 Chips.

Ich denke nicht das es hierbei Probleme mit der Kühlung gibt, genaueres werden wird jedoch erst bei den kleineren Navi Ablegern erfahren.
 
@Assembler

Der "Verbrauch", in Form von Leistungsaufnahme ist zweifellos ein Bestandteil, jedoch in diesem Fall kein wesentlicher denn, bei 7 Nanometer ist die Integrationsdichte, pro Quadratmilimeter bereits sehr hoch und dementsprechend ist auch die Stromdichte, pro Quadratmilimeter nicht unwesentlich hoch.
Zumal die termische Entwicklung, innerhalb des Chips auch Einfluss auf den Wiederstand hat, wass zu einer zusätzlichen Erhöhung der Stromdichte führen wird.

Ich denke, die Verlustleistung, in Form von Wärme abzuführen, wird eine Herausforderung bleiben, sodass es hier zu limitierenden Einschränkungen kommen wird und weniger aus Platz, oder Leistungsaufnahme Gründen.
 
  • Gefällt mir
Reaktionen: AssembIer
Teralios schrieb:
-- Etwas Hintergrund OpenCL aktuell --
Reines OpenCL hat leider einen schweren stand heute. Es ist zu allgemein und teilweise auch zu umständlich und lässt auch gerne dadurch Leistung liegen. 2009 war es durchaus eine gute Idee, aber zu CUDA konnte es nie aufholen und die Hoffnungen die "alle" bis auf nvidia in OpenCL gesetzt haben, konnte es nie wirklich erfüllen.

Ich kann diese Aussagen bestenfalls begrenzt verstehen und frage mich ernsthaft auf was du dich beziehst.

Alle Software die Unter linux irgendwie ein CPU Fresser sein kann unterstuetzt Opencl:
Blender, Gimp und Libreoffice.

das es zu Cuda nie aufholen konnte ist auch so nicht ganz richtig:

What renders faster, NVIDIA or AMD, CUDA or OpenCL?

Currently NVIDIA with CUDA is rendering fastest, but this really depends on the hardware you buy. Currently, CUDA and OpenCL are about the same in the newest mid-range GPUs. However, CUDA is fastest in the respect of high-end GPUs.
https://docs.blender.org/manual/en/latest/render/cycles/gpu_rendering.html
(also bei gleich schneller Hardware gleich schnell)

Dazu wird es von Arm Chips und von Intel unterstützt, wenn also ein Entwickler jemals Compute Beschleunigung für Intel oder Arm nutzen will, wird es Opencl basiert sein. Die Zukunft hier ist also ganz klar Opencl.

Auch Intels neue Grafikkarten werden wohl ausschließlich Opencl unterstützen. Von daher magst du irgendwie mehr erwartet haben, aber behind the Scenes dominiert es klar außerhalb von Spezialanwendungen den Markt.

Generell ist der nutzen von Compute eben eher gering für Normalos daher ist der Portierungsdruck nicht so hoch. So unterstützen btw auch die 2 grossen Browser Opencl (neben Photoshop), ersteres aber nur experimentell, sprich da braucht man noch bisschen Zeit aber dann wird es bei den Browser-betriebssystemen die alle Benutzen auch verwendet werden.

Das Marketing von Opencl mag nicht so gut sein, aber es dominiert ganz klar, und Metall wird nen schweren stand haben gab ja auch Bestrebungen irgendwelche Opencl wrapper zu schreiben die Apple niederschlagen musste. (hatte ich zumindest so in Erinnerung finde aber grad keine Quellen mehr zu)

Apple ist ein Saftladen sondergleichen, ich denke die werden unter anderem wegen der Entscheidung und noch vieler anderer auch bald massive Gewinneinbrüche haben. Deren PC Markt ist doch ein Witz musste man doch grad eingestehen das man in den extrem teuren Apple notebooks die letzten 5 Jahre minderwertige Tastaturen eingebaut hat und baut nun wieder Tastaturen die auf die Technik setzen die man davor eingesetzt hat.

Aber ja die sind halt inkompatibel aus Prinzip, damit man die Käuferschaft in möglichst viel proprietären Gefängnissen und Inkompatibilitäten einsperren kann.

Dieser was haben sie 5% Weltweit? Marktverbreitung halte ich nicht für Relevant. Die unterstützten auch nie DX trotzdem war es vor Vulkan extrem dominierend...
 
xexex schrieb:
Wirst du "nie" erleben, da auch die Anforderungen an die Grafikchips von Jahr zu Jahr steigen und wenn du dich an den CB Tests richtest, wo alle Regler immer auf Ultra geschoben werden, reicht selbst eine RTX2060 heute kaum noch für 1080p.
Die Intel-Amd Kombo mit HBM (Kaby Lake G) war da aber schon recht nahe dran - und dann stellt man eben halt mal den ein oder anderen Regler auf High statt auf Ultra
 
Tech_Blogger schrieb:
Wenn es echt nur ein Shrink von Picasso, also Zen1-Kerne wären, ware das wohl nicht so schlimm.
Der Takt sollte trotzdem steigen und der Verbrauch sinken.

Eien der größten Neuerungen war ja die 256b FPU, glaub die meisten Notebooknutzer würden das verschmerzen wenn man da bei 128b bleibt.
In den Foren werden halt die Intel-Fanboys, aber auch AMD-Fanboys wieder durchdrehen:\
Da wurde ein bisschen mehr gemacht als nur die FPU aufgebohrt, die integer Leistung ist deutlich größer. Deswegen ja die höhere IPC.
Ein reiner Shrink ist unsinnig. Das ist nicht mal eben wie von 14 auf 12 nm. Wenn man den Aufwand betreibt, kann man auch gleich Zen2 Kerne nutzen.


Redirion schrieb:
hm na da glaube ich nicht dran. Für Vega gibt es zwar schon die 7nm-Erfahrungen, aber Zen+ auf 7nm zu shrinken, wäre ein neues Design. Außerdem hat AMD hat das IO-Chiplet vor allem damit begründet, dass die 7nm-Fertigung so teuer sei und IO nicht gut mit der Fertigung mitskaliert. Das passt nicht zusammen.
Das sind ja nur Teilgründe. Hauptgrund ist, dass man mit wenigen Chips viel abdecken kann. Deswegen die Chiplets. Dass dann der IO Die in 12 nm kommt ist dann die von dir genannte Begründung.


Daher sind drei Szenarien denkbar:
Monolithisch mit 12nm Zen+ und 12nm Vega (aber neuer IMC, DCE 2.1, VCN 2.0)
Zwitter mit 12nm Zen+ sowie 7nm Vega Chiplet (Vega 20 brachte bereits die neuere Generation Infinity Fabric).
Chiplet-Design mit 7nm Zen2, 12nm IO und 7nm Vega

da die APUs bisher vor allem das untere Preisende abdecken, glaube ich nicht, dass sich ein komplettes Chiplet-Design wirklich rechnet. Spannend fände ich die Zwitter-Variante, ohne IO-Die, aber GPU-Chiplet mit IF2.0.
Die sind alle sehr unwahrscheinlich.
Bei 1 kannste gleich Picasso weiter nutzen. Viel Aufwand für nichts.
Bei 2 macht es doch 0 Sinn auf Zen+ zu setzen, wenn man einen neue Chip designen muss. Zudem sind 2 Dies kontraproduktiv im mobile Bereich.
Zu 3: Ein Chiplet Design ist für dem mobile Bereich ungeeignet. Und das aus zwei Gründen. Der erste ist Platz. Wie soll denn das Package aussehen? Drei Dies sind viel zu riesig. Schau die mal das Package von Intel für die U oder gar Y Modelle an. Die Hersteller wollen da keine riesen Klopper verbauen müssen.
Der zweite Grund ist Energie. Inter Die Kommunikation kostet viel Energie. Im mobile Bereich ist das völlig ungünstig. Es gab mal ne lustige Präsentation wo drin stand wie viel von einem 32 Kern Epyc TDP fürs Fabric drauf geht.
Alles außer ein monolithischer 7 nm Die ist in meinen Augen völlig abwegig.
Ich weiß auch nicht wo das Problem sein sollte. Größter 7nm Chip, na und? Der wird ja nicht wirklich groß. Zudem ist das dann auch ein knappes Jahr nach den Desktop Chips. Ein Zen2 Chiplet ist 75 mm?. Dann wird man für die APU den Cache halbieren oder vierteln und vielleicht auch die Kern-Anzahl halbieren (wobei das in meinen Augen ein Fehler wäre). Dann läge man bei vielleicht bei 20 - 50 mm für die CPU. Die GPU muss man auch nicht viel aufbohren. Besserer Speicher etwas breiter und mehr Takt und man ist wieder deutlich an der Spitze.
Und IO Teil? Ja der ist nicht in 7nm nötig, aber wie groß ist der denn? Das wird ein mobile und im Desktop Einsteiger Chip. Der wird deutlich kleiner als ein x570.

Wenn man Intel angreifen will, dann mit moderner Technik und Fertigung.
Ergänzung ()

NMA schrieb:
@-Ps-Y-cO-

Eine APU auf 7nm Prozess wird aufgrund der hohen Schaltkreisintegration, im Bezug auf die verfügbare DIE Fläche, sehr kompliziert in der Kühlung.
Ich weiß nicht wo der Quatsch immer her kommt. Wie viele shrinks haben wir jetzt schon hinter uns? Es steigt fast immer die Energiedichte an. Nur ist diese meist überhaupt nicht ausschlaggebend.
Viel interessanter ist doch für die APU, wie viel Performance bekomme ich in das TDP Limit gedrückt. Und da ist 7nm Meilen vorne. Zudem takten die APUs deutlich niedriger im sweet Spot, da ist die Energiedichte deutlich niedriger als bei Desktop GPUs.
alles außer 7nm macht keinen Sinn bei der nächsten APU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redirion
@bensen

Naja, soviel Unsinn kann ich in den genannten Gründen nun wahrlich nicht entdecken.
Je kleiner die Fertigungsverfahren, mit herkömmlicher Lithographie Technologie werden, desto näher kommt die Entwicklung und Handhabung mit dieser Technik an physikalische Grenzen.
Die Beeinflussung benachbarter Strukturen, sowie die Leckströme nehmen ebenfalls, bei kleineren Fertigungsverfahren, zu.

Und ein Shrink bedeutet nicht zwangsläufig, dass der DIE ebenfalls an Größe zunimmt, oder abnimmt, da gehört neben der Schaltkreisdichte und verwendeten Materialien noch deutlich mehr dazu.

Ich kann daher die Aussage von dir "...woher der Quatsch kommt.. " bei weitem nicht nachvollziehen und ich verspüre den Drang, deutlich harschere Worte, gegen derart oberflächliches Argumentation zur Anwendung kommen zu lassen.

Unabhängig davon bin ich jedoch stets gewillt, meinen Horizont beständig zu erweitern.
Ich höre, bei einem fundierten und sachlichen Dialog, gerne zu.
 
Zurück
Oben