News AMD-GPU: Arcturus wird eine Profi-Vega-Grafikkarte

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.532
Die Wellen schlugen hoch, als ein AMD-Mitarbeiter in einem Forum von einer GPU namens „Arcturus“ gesprochen hat. Viele vermuteten, dass so der Nachfolger zu Navi heißen würde, was sich aber bereits länger als vermutlich falsch heraus gestellt hat. Nun gibt es weitere Hinweise, die auf ein professionelles Produkt hindeuten.

Zur News: AMD-GPU: Arcturus wird eine Profi-Vega-Grafikkarte
 

teufelernie

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.431
Ja, jetzt muss man mit ner VII nur noch professionell Netflix in 4k schauen können....
 

v_ossi

Captain
Dabei seit
Juni 2011
Beiträge
3.116
Ich würde es ja... witzig finden, wenn damit sehr, sehr indirekt ein größerer Navi 20 Chip ad acta gelegt werden würde.

Navi wurde als Gaming GPU hauptsächlich für die Konsolen entwickelt und als 5700(XT) auch auf den Desktop los gelassen. Mit RDNA 2 und in 7nm EUV kann man 2020 vlt. 25% drauf legen, aber ein größerer Die nur für die paar Prozent der Hardcore Gamer ist evtl. einfach unwirtschaftlich.

Dann lieber die R&D Kosten im professionellen Markt mit Arcturus wieder einspielen, wo auch nicht so ein kleinkarierter Fanboy Krieg herrscht und wesentlich mehr Geld zu holen ist, zeitgleich den Konsolen Markt alleine beherrschen und die PC Gamer mit Mittelklasse GPUs bei der Stange halten.
 

Wadenbeisser

Commodore
Dabei seit
Jan. 2015
Beiträge
4.552
@konkretor
Ausgehend von den 16GB bei der Vega Frontier (2 Stacks) und den 4 HBM2 Stacks der VII sollten 32 GB absolut kein Problem sein.
Sollte es nicht auch nochmal Stacks mit doppelt so viel Speicherkapazität geben? Dann wären so auch 64 GB möglich.
 

wern001

Lieutenant
Dabei seit
Mai 2017
Beiträge
683
also die RAdeon VII ist schon der Hit mit ihrem speicherdurchsatz.
bei opencl berechnung merkt man einen deutlichen unterschied je nach anwendung ca 90% schneller als eine Vega64 die auf 1150 MHz Ram läuft
 

-Ps-Y-cO-

Commodore
Dabei seit
Okt. 2007
Beiträge
4.696
@konkretor
Ausgehend von den 16GB bei der Vega Frontier (2 Stacks) und den 4 HBM2 Stacks der VII sollten 32 GB absolut kein Problem sein.
Sollte es nicht auch nochmal Stacks mit doppelt so viel Speicherkapazität geben? Dann wären so auch 64 GB möglich.
HBM2-E von Samsung ist der doppelte Stack RAM den du "Suchst".

@konkretor ... Schade dass du HBM als "Tot"? siehst. Ist zumindest schon der Vierte Post wo du HBM als "nicht so toll" ansiehst.
Aber lass dich beruhigen. Uns wird noch HBM3 und HBM4 auf die Karten kommen.
HBM ist doch nur so Teuer da es die Zweite Stufe des RAMs ist.
HBM only AMD + ProfiGPUs von AMD + NV.

HBM2 wird bereits von mehreren Unternehmen genutzt. Nicht nur AMD sondern auch Nvidia und Intel. Ebenso wie ein paar andere (Spezielle beschleuniger von NEC als Beispiel genannt)... ebenso spezielle Miner die auf HBM2 setzen.
 

Chillaholic

Fleet Admiral
Dabei seit
Jan. 2008
Beiträge
11.045
HBM2 wird bereits von mehreren Unternehmen genutzt. Nicht nur AMD sondern auch Nvidia und Intel. Ebenso wie ein paar andere (Spezielle beschleuniger von NEC als Beispiel genannt)... ebenso spezielle Miner die auf HBM2 setzen.
Allerdings ist AMD der einzige Hersteller gewesen der HBM2 im Endkundenbererich verwendet hat.
Das hat keine enorme FPS in Spielen generiert und die Preise waren dadurch auch deutlich zu hoch.
Die Skepsis gegenüber HBM auf Consumerkarten ist also tatsächlich begründet.
 

Cyberfries

Lt. Junior Grade
Dabei seit
Juni 2016
Beiträge
323
Wozu eine weitere Profikarte?
Die müsste ja dann klar schneller als die VII sein.
Aber einen Chip in der Größe unter DUV?
Oder ist Arcturus dann auch für die Chiplet Gerüchte im GPU-Bereich verantwortlich?
Im professionellen Sektor sollten Chiplets doch weniger Probleme verursachen, oder?
 

Novasun

Lieutenant
Dabei seit
Okt. 2011
Beiträge
864
Ich würde es ja... witzig finden, wenn damit sehr, sehr indirekt ein größerer Navi 20 Chip ad acta gelegt werden würde.
Navi wurde als Gaming GPU hauptsächlich für die Konsolen entwickelt und als 5700(XT) auch auf den Desktop los gelassen. Mit RDNA 2 und in 7nm EUV kann man 2020 vlt. 25% drauf legen, aber ein größerer Die nur für die paar Prozent der Hardcore Gamer ist evtl. einfach unwirtschaftlich.
Im Prinzip gebe ich dir Recht aber mit einer anderen Begründung. AMD erhöht den Entwicklertackt bei sich selbst deutlich. Schon nächstes Jahr soll der "Nachfolger" kommen... Wobei ich Ihnen auch zutraue dass das NAVI+ wird in "größer" und dass dann als großer Navi vermarktet wird.

Die Konsolen selbst werden ja vermutlich auch ein Navi+ Pedant erhalten. Denn AMD`s Ansatz für Retraicing erfordert Anpassungen an der Hardware.
Ergänzung ()

Wozu eine weitere Profikarte?
Die müsste ja dann klar schneller als die VII sein.
Aber einen Chip in der Größe unter DUV?
Oder ist Arcturus dann auch für die Chiplet Gerüchte im GPU-Bereich verantwortlich?
Im professionellen Sektor sollten Chiplets doch weniger Probleme verursachen, oder?
Wenn die Probleme technisch sich lösen lassen, sollte das auch im Consumerbereich funktionieren...
 
Dabei seit
März 2017
Beiträge
873
HBM fände ich sogar Interessant und Sinnvoll grundsätzlich davon so 2GB direkt auf CPU's zu bringen entweder als ne Art L4 oder zusätzlich als Spezielle RAM anbindung für die CPU wie aktuell DDR4!

Stellt euch vor ein aktueller Ryzen 3000 wo ja noch Platz wäre hätte da einen Stack mit drauf, da würden selbst 512bit ausreichen...

Auch wäre die Leistung einer RDNA als Vollausbau mit mehr als 4096 Shadereinheiten grundsätzlich äußert Interessant wenn man schaut was da schon 23** schaffen, ob nun mit oder ohne HBM.
 

-Ps-Y-cO-

Commodore
Dabei seit
Okt. 2007
Beiträge
4.696
Allerdings ist AMD der einzige Hersteller gewesen der HBM2 im Endkundenbererich verwendet hat.
Das hat keine enorme FPS in Spielen generiert und die Preise waren dadurch auch deutlich zu hoch.
Die Skepsis gegenüber HBM auf Consumerkarten ist also tatsächlich begründet.
Klar verstehe Ich das. Für die 3 hat GDDR aber ausgedient.
HBM ist der "Next Step". So wie HDD auf SSD.
Glaube nicht dass AMD da 2005 dran gesessen und Entwickelt hat, um ihn dann wieder 2020 vom Markt zu nehmen und zu Begraben.

Die Preise von HBM2 dürften schon deutlich niedriger sein als die von HBM1.
Es kommt doch dabei auf die Produktionsgröße an.
HBM1 hat gezeigt, es ist machbar, es ist sinnvoll.
HBM2 hat gezeigt, der Markt sucht so ein Produkt (Speicher direkt! neben CPU/GPU Die!)
HBM3 wird dann wohl in solch großer Stückzahl produziert, dass GDDR6+ garnicht mehr Entwickelt wird.
Oder GDDR7. Macht auch wenig sinn. die PCBs werden durch GDDR nur "Aufgeplustert"
Vielleicht wird man die NANO-Serie von AMD noch groß aufziehen.
Denke dieser Formfaktor ist mitunter die nächste GPU-Größe.

Und ja, NV wird auch noch eine Consumer-HBM GPU auf den Markt werfen. Die wird auch Ordentlich leisten.
HBM auf Nvidia Karten = Ja geil!!
HBM auf AMD Karten = Zu teuer! lieber GDDR6.
Danach beschweren warum die AMD GPUs mehr Verbrauchen oder nicht so Stark sind.
Kennen das doch alles schon.
 

benneq

Admiral
Dabei seit
Juli 2010
Beiträge
8.276
Die Skepsis gegenüber HBM auf Consumerkarten ist also tatsächlich begründet.
Das mag natürlich sein. Aber man sieht ja auch deutlich, dass Consumeranwendungen (= Spiele) dieselbe Performance mit GDDR6 erreichen. Also warum sollte man dort deutlich teureren HBM verbauen? Wer OpenCL und Speicherdurchsatz will, muss dann halt tiefer in die Tasche greifen.
Aber ich denke, dass das die richtige Entscheidung ist. So kann man die Gamer mit günstigeren Modellen bei gleichbleibender Leistung bedienen - oder gleichbleibender Preis und man fährt damit mehr Gewinn ein. Es macht für die jeweiligen Zielgruppen also keinen Unterschied, weil die Performance trotzdem passt.
Die Bandbreite lässt sich ja auch bei GDDR6 noch relativ einfach durch ein dickeres Speicherinterface erhöhen. Ich sehe da einfach noch keinen Grund, um teuren HBM zu verballern, wenn die extra Bandbreite dann einfach verpufft, weil sie nicht benötigt wird.
 

Chillaholic

Fleet Admiral
Dabei seit
Jan. 2008
Beiträge
11.045
HBM1 hat gezeigt, es ist machbar, es ist sinnvoll.
Also ob die 4GB Fury (X) wirklich so sinnvoll war, werd ich einfach mal nicht bewerten. ;)
Die kam immerhin gleichzeitig mit ner R9 390(X) 8GB und war AMDs High End Produkt.

Ich bin gespannt was die Zukunft sagt, bisher war HBM bei AMD aber irgendwie ein großer Kostenpunkt oder hat schlicht wie bei HMB1 für unnötige Beschränkungen gesorgt und hat die Karten dadurch unattraktiv gemacht, während Nvidia mit GDDR sich weiterhin bei niedrigen Kosten verkauft hat wie geschnitten Brot.
 

muzafferamg58

Lt. Junior Grade
Dabei seit
Apr. 2019
Beiträge
382
Ich hoffe, dass das nicht als Gamer Karte vermarketet wird, noch eine Art von R7, waere nicht grade gut. Sie sollten es lieber trennen.
 
Top