Erste Gerüchte zu Acturus und den GCN Nachfolger aufgrund eines Patents

MK one

Banned
Registriert
März 2017
Beiträge
4.889
https://www.pcgamesn.com/amd/amd-next-gen-graphics-card-architecture-arcturus

Bisher war es bei der alten GCN Architektur so das die GCN zu 64 Stück zu einer " Compute Unit " = CU zusammengefasst wurden und nur die CU unabhängig voneinander agieren konnten , nun sieht es so aus als würde künftig jeder Core das können

The new high-bandwidth stream processors seem to have far more logic packed inside them than just the old GCN-style of simple ALUs. The patent shows each stream processor looking more like a GCN compute unit of old, with each of them housing their own instruction queues, cache and buffers. This could result in each ‘core’ then becoming the smallest independently functioning part of the GPU as they will be more capable of carrying out tasks without having to wait to use the shared resources built into the standard compute unit.

auch könnte nicht nur ein DLSS ähnliches Feature geboten werden sondern auch DXR

With AMD’s graphics architecture already heavily compute-focused anyway, the next-gen Arcturus (maybe) design could end up being a monster on that front. And with that much complex silicon inside each stream processor in the compute unit – not a million miles away from the streaming multiprocessor (SM) design Nvidia has been using to pack out its own GPUs with – there’s the potential for not only the WinML promise of a DLSS-like feature, but genuine DXR support could also find its way into the 2020 AMD architecture.
wir werden es erleben ... , das Patent heißt übrigens " ‘Super single instruction multiple data (Super-SIMD) for graphics processing unit (GPU) computing.’ "
 
  • Gefällt mir
Reaktionen: Areve, Cpt.Willard, EvilsTwin und 3 andere
Passt sehr gut zu Apples Ansatz. Die haben mit 7 „Kernen“ beim A12X verhältnissmäßig massiv viel Leistung.
 
Interessant und danke fürs Posten, @MK one . Beim Lesen des Patents und der Aussage, dass AMD in Zukunft flexibler bei den CUs (Compute Units) werden möchte, musste ich doch sofort an Nvidias Architektur mit den Streaming Multiprocessors (SMs) denken. Und tatsächlich, gegen Ende des Artikels wird das hier erwähnt:

The parallels between Nvidia’s existing streaming multiprocessor design and this potential new AMD stream processor aren’t hard to parse. By putting more logic into the smallest parts of its GPUs AMD is going to allow for more finegrain control, hence the power saving, and more parallel processing, potentially boosting per clock performance.

Nvidia hatte ja selbst in der Vergangenheit mit der Größe und Anzahl an Graphics Processing Clusters (GPCs) und Streaming Multiprocessors (SMs) immer wieder experimentiert und diese nun bei Turing recht klein geschnitten. Zusätzlich haben sie die Caches in den SMs erhöht und dort auch parallele Ausführungseinheiten für INTs eingebaut, was u.a. 50% Performanceplus bei den TU-Chips realisiert hat.

Es ist ja ganz nett zu lesen, dass auch AMD in diese Richtung gehen wird (bzw. es wird spekuliert), aber ich verstehe immer noch nicht, weshalb das nicht innerhalb der GCN-Architektur möglich war. :confused_alt:

Interessant nebenbei ist auch, dass AMD an 2 Stellen tatsächlich sich an Nvidia orientiert hat: Das erste Mal war, als sie die Evergreen-Architektur zu Gunsten von GCN verworfen hatten (und damit Nvidias Fermi Ansatz im Kern nachgebaut hatten) und jetzt GCN auf mehr Flexibilität erweitern und damit das GPC/SM Prinzip von Nvidia übernehmen, das offensichtlich sehr, sehr gut skaliert: Während AMD schon länger, d.h. seit Fiji, bei 4.096 Shadern limitiert, ist mit der Nvidia Titan V (d.h. Volta Architektur) die Zahl der Shader bei 5.120 angelangt - und ein Ende nicht absehbar.
 
Zurück
Oben