News Nächste AMD-APU: Renoir mit LPDDR4X-Support und neuer Display Engine

Apple fokussiert sich auf ihre proprietäre Schnittstelle Metal.
Kan Metal OpenCL überhaupt ersetzen?

Dachte immer, Metal wäre wie DX, Vulkan eine API für Grafik
OpenCL für Compute

Ist Metal echt für beides gedacht?

nVidia bleibt bei CUDA
Verständlich, die wären blöd wenn die das freiwillig aufgeben.

Redirion schrieb:
und zufälligerweise ist GCN mit Metal voll kompatibel.
RDNA sicher auch.

Mit LPDDR4X und GCN klingt das, als wollte sich AMD für Apple schmackhaft machen. Wäre kein unkluger Gedanke nach der bisherigen Adaptionsrate im mobilen Bereich.
Wenn Apple echt eien APU von AMD verbaut, würde das den Ruf von AMD (bei uninformierten Leuten!) extremst verbessern!
 
  • Gefällt mir
Reaktionen: greeny112 und yummycandy
stevefrogs schrieb:
Ich dachte das war mit aktivierten VRS, also schlechterer Bildqualität?
816339

https://www.computerbase.de/2019-05/intel-ice-lake-amd-picasso-grafik-test-vergleich/

~6% schneller war ICL-U im Vergleich zum R7 3700U unter den 6 vorgestellten Spielen.
Aber wie einige schon angemerkt haben, es war ein Vergleich mit maximalen Speichersupport.
ICL-U bekam LPDDR4X-3733, während der Picasso Chip von AMD nur maximal DDR4-2400 unterstützt.

ghecko schrieb:
Nachdem ich von der OpenCL Leistung von Navi recht enttäuscht bin finde ich Vega in der APU gar nicht mehr so kritisch. Solange der VCN auf Stand gebracht wird.
Bei Navi dürfte der Treiber schlicht nicht optimiert sein und der ältere OpenCL-Stack unter Windows wird scheinbar auch wenig bis kaum mehr gepflegt.
Es gibt aber Hinweise darauf, dass aber ROCm (neuer OpenCL-Stack) endlich auf Windows portiert wird.

andi_sco schrieb:
Kosten/Nutzen - was bringt dir Navi, wenn die Speicherbandbreite noch mehr zum Flaschenhals wird?

In den Konsolen wird Navi ja mehr Bandbreite bekommen, als über popeliges Dual-Channel möglich ist.
Die Speicherbandbreite wird mit Navi eben weniger zu einem Problem, da Navi weniger auf externe Speicherbandbreite angewiesen ist.
 
xexex schrieb:
Wirst du "nie" erleben, da auch die Anforderungen an die Grafikchips von Jahr zu Jahr steigen und wenn du dich an den CB Tests richtest, wo alle Regler immer auf Ultra geschoben werden, reicht selbst eine RTX2060 heute kaum noch für 1080p.
Darfst nur keine ganz aktuellen AAA Games nehmen.
But, Can it Run Crysis?? :lol: Aua! Nicht hauen :D
Könnte mir vorstellen, das das mittlerweile auch in FHD ganz gut gehen sollte.
 
Hätten sie den Ryzen mit DDR4-2666 getestet, wäre er da im Schnitt wohl besser als Ice Lake U.
Eigentlich sollte Intel auf diese Werte nicht stolz sein, weil das nur aufzeigt, daß man grafikmässig AMD noch unterlegen ist!

Es gibt aber Hinweise darauf, dass aber ROCm (neuer OpenCL-Stack) endlich auf Windows portiert wird.
Hast du da zufällig einen Link zur Hand?
 
Locuza schrieb:
~6% schneller war ICL-U im Vergleich zum R7 3700U unter den 6 vorgestellten Spielen.
Laut Intels eigenen Benchmarks. Dass Computerbase das schon als Fakt darstellt und AMD jetzt nachlegen müsse, sehe ich kritisch. Intels Marketing ist offenbar voll aufgegangen, obwohl Intel einen Prozessor mit einem Recommended Customer Price von $426.00 brauchte, um AMDs 3700U zu schlagen.
 
  • Gefällt mir
Reaktionen: Dittsche und andi_sco
AMD hat offiziell aber nur DDR4-2400 unterstützt, nur weil schnellerer RAM verbaut ist, läuft er nicht automatisch auch mit höherem Takt.
 
  • Gefällt mir
Reaktionen: bensen und Redirion
AMD hat offiziell aber nur DDR4-2400 unterstützt
Darum geht es mir aber gerade nicht.
AMD kann die Spec jederzeit erweitern, bzw. mit Renoir geht auch viel schnellerer RAM.

Ich wollte nur aufzeigen, daß Intel da keinen Vorteil hat, weil wie man sieht, zieht AMD beim Speichertakt einfach nach.
Wenn deren iGPU schon mit geringerem Datendurchsatz nicht langsamer ist, dann schaut das für Intel da nicht gut aus!
 
MichaG schrieb:
Es war so gemeint, dass das Gesamtpaket aus Vega-GPU + VCN + DCN aktualisiert wurde.
Es ist ja nicht mal sicher ob 7nm.Aber da AMD bei TSMC bereits Zen und Vega in 7nm gefertigt hat, würde eine Portierung von Picasso auf 7nm TSMC Fertigung nicht der große Aufwand sein und man hat ein Design, dass man vermutlich nicht so testen muss, wie ein neuer Zen2/Navi SoC Design. Man verschafft sich so buffer und Zeit für ein Soc Design eben auf neuer Arch oder eben für das Chiplet Design Zen2 +navi.

Ich vermute wir sehen den chip früher als gedacht, besonders da einige Quellen und schlagt mich nicht tod, auch wccftech.com, vor Monaten von einem 7nm APU Shrinke sprachen, was natürlich nichts bedeuten muss, doch bei AMD schon paar mal der Fall war. Angefangen mit der Radeon 4770, oder letzte überraschte Ankündigung. Vega 20 Pro mit 20 CUs und HBM Speicher.

Oder man denke an Carrizo, der bereits als Übergangslösung so designt wurde, dass er nach DDR3 auch DDR4 unterstützte und kleinere Uodates bekam ect.
 
  • Gefällt mir
Reaktionen: Redirion
Tech_Blogger schrieb:
Kan Metal OpenCL überhaupt ersetzen?

Dachte immer, Metal wäre wie DX, Vulkan eine API für Grafik
OpenCL für Compute

Ist Metal echt für beides gedacht?
In der Praxis ist es so, dass OpenCL1.2 die einzige Schnittstelle ist, welche einen halbwegs nennenswerten Verbreitungsgrad genossen hat und ein breites Featureset in Bezug auf Compute gab es dort noch nicht.
Mit Metal, der Metal Shading Language und Performance Shaders sollte man nicht viel vermissen.

Adobe hat auch eine Android App (Premiere Rush) im GooglePlayStore, welche CLspv verwendet, um OpenCL C-Code zu SPIR-V zu übersetzen, welcher dann von den Vulkan-Treibern ausgeführt wird.

Tech_Blogger schrieb:
Hast du da zufällig einen Link zur Hand?
https://twitter.com/KOMACHI_ENSAKA/status/1160370705109700613

In den letzten Windows-Treibern ist "amdhip64.dll" dazu gekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy und Teralios
@AssembIer
Der durch die shared TDP gedrosselte CPU Part ist nicht die Hauptbremse für die IGP sondern eine unzureichende Speicherbandbreite und das hat einen einfachen Grund. Kann die CPU die Daten nicht schnell genug an die GPU liefern dann wird diese dadurch gedrosselt und es ist wieder ein größeres TDP Fenster für die CPU frei. Eine Wechselwirkung die bei einer zu langsamen Speicheranbindung so nicht besteht.
 
  • Gefällt mir
Reaktionen: bensen und andi_sco
Wenn es echt nur ein Shrink von Picasso, also Zen1-Kerne wären, ware das wohl nciht so schlimm.
Der Takt sollte trotzdem steigen und der Verbrauch sinken.

Eien der größten Neuerungen war ja die 256b FPU, glaub die meisten Notebooknutzer würden das verschmerzen wenn man da bei 128b bleibt.
In den Foren werden halt die Intel-Fanboys, aber auch AMD-Fanboys wieder durchdrehen:\

@Locuza Danke!
 
xexex schrieb:
Wirst du "nie" erleben, da auch die Anforderungen an die Grafikchips von Jahr zu Jahr steigen und wenn du dich an den CB Tests richtest, wo alle Regler immer auf Ultra geschoben werden, reicht selbst eine RTX2060 heute kaum noch für 1080p.
sage niemals nie nicht, ich denke das wird in spätestens 10Jahren sicher geben, nur zockt dann eben keiner mehr in full HD somit reicht es dann auch wieder nicht ;)
 
  • Gefällt mir
Reaktionen: xexex
Tech_Blogger schrieb:
Wenn es echt nur ein Shrink von Picasso, also Zen1-Kerne wären, ware das wohl nciht so schlimm.

hm na da glaube ich nicht dran. Für Vega gibt es zwar schon die 7nm-Erfahrungen, aber Zen+ auf 7nm zu shrinken, wäre ein neues Design. Außerdem hat AMD hat das IO-Chiplet vor allem damit begründet, dass die 7nm-Fertigung so teuer sei und IO nicht gut mit der Fertigung mitskaliert. Das passt nicht zusammen.

Daher sind drei Szenarien denkbar:
Monolithisch mit 12nm Zen+ und 12nm Vega (aber neuer IMC, DCE 2.1, VCN 2.0)
Zwitter mit 12nm Zen+ sowie 7nm Vega Chiplet (Vega 20 brachte bereits die neuere Generation Infinity Fabric).
Chiplet-Design mit 7nm Zen2, 12nm IO und 7nm Vega

da die APUs bisher vor allem das untere Preisende abdecken, glaube ich nicht, dass sich ein komplettes Chiplet-Design wirklich rechnet. Spannend fände ich die Zwitter-Variante, ohne IO-Die, aber GPU-Chiplet mit IF2.0.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Transistor 22
@Redirion Aber wie will man 12nm GloFo und 7nm TSMC in einem Die vereinigen. Man müsste den teilbelichteten Wafer dann von GloFo zu TSMC transportieren.
 
Transistor 22 schrieb:
@Redirion Aber wie will man 12nm GloFo und 7nm TSMC in einem Die vereinigen.

huh? aber so ist es doch bei den aktuellen Zen2-Prozessoren. Die IO-Chiplets kommen von GloFo. Die Zen2-Chiplets von TSMC.

edit: oder meinst du die "Zwitter"-Variante? Das wären ja zwei DIEs.
 
Redirion schrieb:
huh? aber so ist es doch bei den aktuellen Zen2-Prozessoren. Die IO-Chiplets kommen von GloFo. Die Zen2-Chiplets von TSMC.
Aber da sind die Dies schon Belichtet und werden nur noch auf einem Package vereinigt. Aber das man einen Teilbelichteten Wafer nochmal bei einem anderem Belichter belichten lässt gab es meines Wissens noch nicht.
 
Tech_Blogger schrieb:
Kan Metal OpenCL überhaupt ersetzen?
Kommt drauf, wie man es betrachten mag und um was es geht!

Tech_Blogger schrieb:
Dachte immer, Metal wäre wie DX, Vulkan eine API für Grafik. OpenCL für Compute
Nicht ganz richtig!

DX ist erst mal nur DirectX und bezeichnet eine Familie verschiedener APIs. Wir benutzen DX aber nicht als Bezeichnung für die Familie, sondern synonym für Direct3D und Direct2D (ersetzte DirectDraw). Es gibt aber neben diesen Bibliothek für Grafik noch welche für Audio, Eingaben (XInput, DirectInput) und eben DirectCompute (das mit DX11 als neue API eingeführt wurde in die Familie).

Ich bedien mich mal einer Analogie aus der Welt der Bibliotheken:

DirectX ist ein ganzes Regal mit Büchern, da findest du für alle möglichen Themen ein Buch mit genau einem Kapitel. Also ein Buch über Grafikkarten und 3d-Berechnung. Ein Buch über Grafikkarte und 2d-Berechnung, eines über Grafikkarten und Compute, eines über Soundausgabe, eines über Eingabe. Alle mit ihren Titeln und am Ende bilden all die Bücher halt das Regal.

Metal, OpenCL und Vulkan wiederum sind einzelne Bücher. In den Findest du einzelne Kapitel. Da haben wir das Buch OpenCL, dadrin sind dann Kapitel über "Compute per Grafikkarte", "Compute über FPGA", "Compute über CPU".

Metal und Vulkan sind auch wieder Bücher, nur spezifischer, nämlich Grafikkarten und die Bücher haben dann auch verschiedene Kapitel, in dem Fall z.B. "3d Grafik auf Grafikkarte" "Compute auf der Grafikkarte".

Ich hoffe die Analogie hilft dir.
 
  • Gefällt mir
Reaktionen: Tech_Blogger
Redirion schrieb:
Monolithisch mit 12nm Zen+ und 12nm Vega
Das gibt es mit Picasso doch schon.

Zwitter mit 12nm Zen+ sowie 7nm Vega Chiplet (Vega 20 brachte bereits die neuere Generation Infinity Fabric).
Du meinst nochmal Zen1 in 12nm?
Also ein halbierter Pinnacle Ridge?
Dieses Beispiel ist doch eigentlich dann auch ein Chiplet-Package?

Chiplet-Design mit 7nm Zen2, 12nm IO und 7nm Vega
Da glaub ich eher, daß man I/O in die GPU integriert.
Bei einer APU ist es gut, wenn der RAM möglichst "nah" an der iGPU ist!
 
  • Gefällt mir
Reaktionen: Vorgartenzwerg
@Tech_Blogger ja die Monolithische Variante komplett in 12nm wäre halt wie @pipip beschrieben hat die Evolution bei Carizzo oder Bristol Ridge, wo bei gleicher Fertigung halt noch Neuerungen im IO-Bereich Einzug hielten.

"Dieses Beispiel ist doch eigentlich dann auch ein Chiplet-Package?" -> ja, aber ohne extra IO-Die. D.h. nur 2 Chiplets statt des "kompletten Chiplet-Ansatzes".

"Da glaub ich eher, daß man I/O in die GPU integriert.
Bei einer APU ist es gut, wenn der RAM möglichst "nah" an der iGPU ist!"
Klingt sinnvoll, aber das würde wiederum ein Redesign von Zen+ erfordern oder zumindest die Möglichkeit den IO-Bereich bis auf IF bei Zen+ abzuschalten. Daher vermute ich halt eher Zen+ inklusive IO 12nm an Vega 7nm Chiplet.
 
Zurück
Oben