News Patent: AMD plant mit GPUs im Chiplet-Design

Zen 4 soll erst Ende 2022 kommen? Ist das ein Schreibfehler oder Tatsache?
 
tackleberry schrieb:
Zen 4 soll erst Ende 2022 kommen? Ist das ein Schreibfehler oder Tatsache?
Nochmal lesen.. bis ende 2022 kommen.. das beinhaltet auch z.B. 2.1.2022.
Monat und Tag sind halt noch unbekannt.

Theoretisch ist in bis Ende 2022 auch schon ab in 0,0001 Sekunden möglich glaub 🤷‍♀️

Auf den Folien steht RDNA3 und Zen4 halt im 2022 Block..
 
peter.hahn schrieb:
nochmal lesen.. bis ende 2022 kommen.. das beinhaltet auch bereits in 0,01Sekunden..

Aber was ist denn nun die aktuelle Erwartungshaltung bezüglich Release? Eher Anfang 2022 oder eher Ende 2022? Für mich ist das extrem relevant wegen langfristiger Upgradeplanung.
 
tackleberry schrieb:
Aber was ist denn nun die aktuelle Erwartungshaltung bezüglich Release? Eher Anfang 2022 oder eher Ende 2022? Für mich ist das extrem relevant wegen langfristiger Upgradeplanung.
Wahrscheinlich kommt im Herbst/Winter ein Zen3+ Refresh..
ob dann schon für AM5 und/oder mit DDR5 🤷‍♀️

Evtl. ist es auch einfach nur zusätzliche ryzen 5000 XT Variante ..
 
Novasun schrieb:
Irgendwie musst du in der Vergangenheit was falsch mit bekommen haben. Der einzige der drei Genannten der Chiplets produziert ist AMD. Also es macht Sinn das die anderen Beiden in Zukunft auch in diese Richtung gehen werden. Denn die Vorteile stellt AMD beeindruckend unter Beweis....
Nichts für Ungut.. Aber es so hinzustellen als wenn AMD dem Ganzen hinter her läuft sind - Fake News
Es geht hier ja um Grafikkarten und dass da die Konkurrenz auch mit Chiplets experimentiert weiß man entweder schon länger durch die Gerüchteküche (Nvidia Hopper) oder es wurde schon offiziell vorgestellt (Intel Xe).

Und warum du meinen Post so interpretierst, dass ich behaupte, AMD läuft irgendwem hinterher, verstehe ich nicht. Nur weil jetzt das Patent bekannt wurde, heißt ja nicht, dass AMD später als die Konkurrenz dran ist. Wer da als erstes mit angefangen hat, wird hier im Forum wohl keiner wissen.
 
  • Gefällt mir
Reaktionen: foo_1337
tackleberry schrieb:
Aber was ist denn nun die aktuelle Erwartungshaltung bezüglich Release?
AMD hat bisher grob 15 Monate für eine Generation gebraucht. Sprich nach Herbst 2020 kommt jetzt frühestens Anfang 2022 was, wobei man nicht weiß in wie weit DDR5 und evtl. Corona den Release eventuell verzögert. Vor April 2022 würde ich aber definitiv nichts erwarten, außer vielleicht einen Zen3 Refresh. Aber kein Zen4.
 
Ghostshield schrieb:
8 Kern Chiplet und das zweite ist eine GPU, oder die packen die GPU in den i/O DIE

Und was erwartest du von einem Power-Budget von 65 bzw. 105 Watt für so eine kombination im Desktop?
Vor allem In Anbetracht der existierenden 4000er APU Reihe.
Ergänzung ()

tackleberry schrieb:
Aber was ist denn nun die aktuelle Erwartungshaltung bezüglich Release? Eher Anfang 2022 oder eher Ende 2022? Für mich ist das extrem relevant wegen langfristiger Upgradeplanung.
Du solltest langsam gelernt haben, wie das mit so langfristigen Planungen ist. Oder waren die letzten Monate (bei Intel eher Jahre) nicht Lehrreich genug?

Ich sehe auch 0 Sinn in einer solchen "Planung". Wenn was da ist kann man beurteilen wie hoch der Mehrwert ist und ob Kosten & Nutzen passen. Alles andere ist doch ohne Hand und Fuß.
 
  • Gefällt mir
Reaktionen: ThePlayer
Prinzipiell eine gute und vielversprechende Idee; der Teufel steckt, wie oft, im Detail, v.a. dem Interconnect. Wenn das am Ende zu Mikrorucklern usw führt (NVIDIA's SLI lässt grüßen), oder das Interconnect einiges an Strom zieht, ist die Idee zwar gut, aber nicht gut genug. Deshalb bin ich jetzt mal gespannt, ob und wann AMD ein "Proof of Concept" in Silikon zeigen kann, v.a. eins in dem das Connecting Fabric sowohl gut funktioniert. Wenn ja, hätte AMD natürlich einen Riesenvorsprung vor NVIDIA, Intel und anderen, der Kostenvorteil alleine wäre enorm.
 
Naja, das Patent sagt halt null über AMDs Fortschritt diesbezüglich aus. Auch nicht ob nvidia/Intel hinterher hinken oder bereits voran sind. Ich hab das Gefühl, dass manche hier denken, dass die Konkurrenz hier untätig sei oder gar dass dieses Patent nur AMD ein Chiplet Design erlauben würde.
 
eastcoast_pete schrieb:
-- AMD ein "Proof of Concept" in Silikon zeigen kann, v.a. eins in dem das Connecting Fabric sowohl gut funktioniert. Wenn ja, hätte AMD natürlich einen Riesenvorsprung vor NVIDIA, Intel und anderen, der Kostenvorteil alleine wäre enorm.
jo, sowas braucht locker 4-5 Jahre Planung.. warum es bei Intel damit auch noch bis 2024/2025 dauert
Für Gaming in der Tat unklar, für HPC aber gangbar.
 

foo_1337

halt null über AMDs Fortschritt diesbezüglich aus
Naja, was ist denn die secret sauce bei RDNA2 ? Der Infinty Cache. Man konnte dank diesem die Taktrate und die Effizenz steigern. Es ist bekannt, dass RDNA2 im Kern RDNA1 entspricht. Im Kern unterscheidet sich die 6000 und 5000 Serie nicht.
Effizienz und Takt konnten gesteigert werden, da bereits jetzt viele Daten direkt aus dem Cache gelesen werden können.

Weiteres gibt es paar Zahlen seitens AMD, die den Infinity Cache mit 256 Bit SI mit 386 Bit und 512 Bit SI vergleichen.
Wer sagt also, dass der HB-Link nicht so wie jetzt bereits auf diesen Infinty Cache aufbaut ?

1609783754864.png


Ich denk, der große Aufgabe ist eher die Steuerlogik, Treiber und die Frage, wie schnell der HB-Link sein muss. Gerüchte sprechen ja schon länger, dass es mit RDNA3 da weiter gehen soll. Wobei der Core als nächste Baustelle, ebenso dran kommen könnte. Weil RDNA3 soll zu RDNA2 wieder 50% bessere Watt/Performance bringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
pipip schrieb:
Naja, was ist denn die secret sauce bei RDNA2 ? Der Infinty Cache. Man konnte dank diesem die Taktrate und die Effizenz steigern. Es ist bekannt, dass RDNA2 im Kern RDNA1 entspricht. Im Kern unterscheidet sich die 6000 und 5000 Serie nicht.
Wieso konnte man dank des Infinity Caches die Taktrate steigern? Die Effizienz wurde auch nur indirekt durch diesen gesteigert. Im wesentlichen sorgt der Cache dafür, dass "langsamer" GDDR6 RAM verwendet werden kann sowie für einen IPC Boost. Ja, im Kern unterscheidet sich Navi nicht von Big Navi. Aber die Chipfläche ist signifikant größer, daher kommt der Leistungszuwachs im Wesentlichen.

Die Balken von AMD sind ja schön, aber das ist halt wie bei Turbo Write und Samsung QVO. Wenn der Cache ist voll ist, ist er voll. Sieht man aktuell auch ganz gut daran, dass die Performance der RX6x80 Karten in 4k vergleichsweise stark nachlässt.
 
@pipip Der InfinityCache bewirkt nur, dass das Speicherinterface schmaler ausfallen kann. Es gibt kein Bandbreitenlimit, in das die Karte laufen könnte (außer in dem einen Spiel in 5K, wie CB zeigte).

Der HBX wird ganz sicher anders aussehen als eine VRAM-Schnittstelle, da er ja passiv ausfallen soll, um weniger Latenzen zu erzeugen. Der HBX wird die L3-Caches, also die einzelnen InfinityCaches, miteinander verbinden. Das erklärt aber noch nicht, woraus der HBX besteht.

@foo_1337 Das Limit des Caches entsteht nicht, wenn er voll wird, das ist eine falsche Analogie. Er wird ja auch fortwährend geleert. Eher, wenn die Trefferquote zu gering wird, was wie von CB gezeigt, frühestens bei 5k der Fall ist. Die RX6000er haben keine Schwäche in hohen Auflösungen. Stattdessen liegt es in der Natur von Nvidias Architektur, dass sie von Auflösungen ab 4k überproportional profitieren.
 
  • Gefällt mir
Reaktionen: Teralios
foo_1337 schrieb:
Sieht man aktuell auch ganz gut daran, dass die Performance der RX6x80 Karten in 4k vergleichsweise stark nachlässt.
Nur dass das nichts mit dem Ca che und SI zutun hat, lies den CB Test dazu.

In 4K kann Ampere seine Shader "besser auf die Straße bringen.
 
  • Gefällt mir
Reaktionen: Colindo
@Colindo die Hitrate des IC liegt bei FHD bei 80%. Bei UHD hingegen bei 58%. Das zumindest sieht für mich so aus als würden Daten "herausaltern", was bei UHD aufgrund der höheren Mengen schneller geht. Wenn der Cache doppelt so groß wäre, wäre die Hitrate sicher höher. Oder bin ich auf dem Holzweg?

@Teralios der Speicher OC Test überzeugt mich nicht 100%ig. Auch die Grafik hier zeigt für mich, dass AMD den Sweetspot bei 1440p gesucht hat und daher 128MB gewählt hat. Bei einer guten UHD Hitrate hätte man vermutlich mindestens auf 256M gehen müssen.
Bei FHD muss die GPU nur in 20% aller Fälle direkt auf den VRAM zugreifen. Bei UHD sind es bereits 42% der Fälle. Klingt für mich nicht so als hätte das überhaupt nichts damit zu tun hat, dass die UHD Leistung proportional schlechter ist.

1609790300851.png
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo

Colindo

Meine Aussage ist, Infinty Cache hat hier eine Zentrale Rolle, so wie es der L3 Cache bei Zen der Fall ist. Der HB-Link selbst sorgt nur dafür, dass die Daten immer schnell aus den L3 Cache gelesen werden kann, denn jedes Chiplet soll ja aus jedem L3 Cache lesen können. Darum geht es.
Ob der IF-Link selbst dann RingBus, Mesh oder sonstiges ist, werden wir dann schon sehen.

Eine Weitere Frage stellt sich nämlich auch, ob denn jedes Chiplet überhaupt einen Anschluss zu RAM haben wird.

Teralios

Besser, oder meinst du das "mehr" an Shader auf die Straße bringen ?

foo_1337

Gibt es auch ein Link dazu, oder müssen wir da jetzt raten ^^ ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
@pipip
Laut Patent hat jedes Chiplet einen Memory PHY zum Anschluss an den VRAM.
 
  • Gefällt mir
Reaktionen: foo_1337 und Colindo
Zurück
Oben