News AMD-GPU: Arcturus wird eine Profi-Vega-Grafikkarte

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Die Wellen schlugen hoch, als ein AMD-Mitarbeiter in einem Forum von einer GPU namens „Arcturus“ gesprochen hat. Viele vermuteten, dass so der Nachfolger zu Navi heißen würde, was sich aber bereits länger als vermutlich falsch heraus gestellt hat. Nun gibt es weitere Hinweise, die auf ein professionelles Produkt hindeuten.

Zur News: AMD-GPU: Arcturus wird eine Profi-Vega-Grafikkarte
 
  • Gefällt mir
Reaktionen: [wege]mini, Kazuja und Mcr-King
Mal sehen was sie da wieder raushauen. Die letzten Wochen waren auf jeden Fall sehr aufgeregend von seitens AMD
 
  • Gefällt mir
Reaktionen: Shogun-Henker, Thorbsanne und Mcr-King
Vega war/ist für professionelle Anwendungen eh keine schlechte Wahl. Bin mal gespannt, was das kommt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich würde es ja... witzig finden, wenn damit sehr, sehr indirekt ein größerer Navi 20 Chip ad acta gelegt werden würde.

Navi wurde als Gaming GPU hauptsächlich für die Konsolen entwickelt und als 5700(XT) auch auf den Desktop los gelassen. Mit RDNA 2 und in 7nm EUV kann man 2020 vlt. 25% drauf legen, aber ein größerer Die nur für die paar Prozent der Hardcore Gamer ist evtl. einfach unwirtschaftlich.

Dann lieber die R&D Kosten im professionellen Markt mit Arcturus wieder einspielen, wo auch nicht so ein kleinkarierter Fanboy Krieg herrscht und wesentlich mehr Geld zu holen ist, zeitgleich den Konsolen Markt alleine beherrschen und die PC Gamer mit Mittelklasse GPUs bei der Stange halten.
 
  • Gefällt mir
Reaktionen: andi_sco, Smartbomb und NMA
@konkretor
Ausgehend von den 16GB bei der Vega Frontier (2 Stacks) und den 4 HBM2 Stacks der VII sollten 32 GB absolut kein Problem sein.
Sollte es nicht auch nochmal Stacks mit doppelt so viel Speicherkapazität geben? Dann wären so auch 64 GB möglich.
 
also die RAdeon VII ist schon der Hit mit ihrem speicherdurchsatz.
bei opencl berechnung merkt man einen deutlichen unterschied je nach anwendung ca 90% schneller als eine Vega64 die auf 1150 MHz Ram läuft
 
Wadenbeisser schrieb:
@konkretor
Ausgehend von den 16GB bei der Vega Frontier (2 Stacks) und den 4 HBM2 Stacks der VII sollten 32 GB absolut kein Problem sein.
Sollte es nicht auch nochmal Stacks mit doppelt so viel Speicherkapazität geben? Dann wären so auch 64 GB möglich.

HBM2-E von Samsung ist der doppelte Stack RAM den du "Suchst".

@konkretor ... Schade dass du HBM als "Tot"? siehst. Ist zumindest schon der Vierte Post wo du HBM als "nicht so toll" ansiehst.
Aber lass dich beruhigen. Uns wird noch HBM3 und HBM4 auf die Karten kommen.
HBM ist doch nur so Teuer da es die Zweite Stufe des RAMs ist.
HBM only AMD + ProfiGPUs von AMD + NV.

HBM2 wird bereits von mehreren Unternehmen genutzt. Nicht nur AMD sondern auch Nvidia und Intel. Ebenso wie ein paar andere (Spezielle beschleuniger von NEC als Beispiel genannt)... ebenso spezielle Miner die auf HBM2 setzen.
 
  • Gefällt mir
Reaktionen: Smartbomb, NMA, yummycandy und 2 andere
Überraschend ist es aber, dass die Radeon-Entwickler unter Arcturus anscheinend eine neue, ausschließlich für den professionellen Bereich gedachte GPU auflegen.

Wieso überraschend? Ich hätte nach GCN nichts anderes erwartet.
 
  • Gefällt mir
Reaktionen: derSafran
konkretor schrieb:
Für die Gamer nicht spannend. Mal sehen wieviel RAM sie raushauen auf den Dingern und HBM nach wie vor genutzt wird.

Vielleicht gibt es da die größte Änderung.. GDDR6 mit 32GB... Reicht vermutlich im professionellen Bereich aus und lässt sich billiger herstellen...
 
-Ps-Y-cO- schrieb:
HBM2 wird bereits von mehreren Unternehmen genutzt. Nicht nur AMD sondern auch Nvidia und Intel. Ebenso wie ein paar andere (Spezielle beschleuniger von NEC als Beispiel genannt)... ebenso spezielle Miner die auf HBM2 setzen.
Allerdings ist AMD der einzige Hersteller gewesen der HBM2 im Endkundenbererich verwendet hat.
Das hat keine enorme FPS in Spielen generiert und die Preise waren dadurch auch deutlich zu hoch.
Die Skepsis gegenüber HBM auf Consumerkarten ist also tatsächlich begründet.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku, Infi88 und NMA
Wozu eine weitere Profikarte?
Die müsste ja dann klar schneller als die VII sein.
Aber einen Chip in der Größe unter DUV?
Oder ist Arcturus dann auch für die Chiplet Gerüchte im GPU-Bereich verantwortlich?
Im professionellen Sektor sollten Chiplets doch weniger Probleme verursachen, oder?
 
v_ossi schrieb:
Ich würde es ja... witzig finden, wenn damit sehr, sehr indirekt ein größerer Navi 20 Chip ad acta gelegt werden würde.
Navi wurde als Gaming GPU hauptsächlich für die Konsolen entwickelt und als 5700(XT) auch auf den Desktop los gelassen. Mit RDNA 2 und in 7nm EUV kann man 2020 vlt. 25% drauf legen, aber ein größerer Die nur für die paar Prozent der Hardcore Gamer ist evtl. einfach unwirtschaftlich.

Im Prinzip gebe ich dir Recht aber mit einer anderen Begründung. AMD erhöht den Entwicklertackt bei sich selbst deutlich. Schon nächstes Jahr soll der "Nachfolger" kommen... Wobei ich Ihnen auch zutraue dass das NAVI+ wird in "größer" und dass dann als großer Navi vermarktet wird.

Die Konsolen selbst werden ja vermutlich auch ein Navi+ Pedant erhalten. Denn AMD`s Ansatz für Retraicing erfordert Anpassungen an der Hardware.
Ergänzung ()

Cyberfries schrieb:
Wozu eine weitere Profikarte?
Die müsste ja dann klar schneller als die VII sein.
Aber einen Chip in der Größe unter DUV?
Oder ist Arcturus dann auch für die Chiplet Gerüchte im GPU-Bereich verantwortlich?
Im professionellen Sektor sollten Chiplets doch weniger Probleme verursachen, oder?

Wenn die Probleme technisch sich lösen lassen, sollte das auch im Consumerbereich funktionieren...
 
HBM fände ich sogar Interessant und Sinnvoll grundsätzlich davon so 2GB direkt auf CPU's zu bringen entweder als ne Art L4 oder zusätzlich als Spezielle RAM anbindung für die CPU wie aktuell DDR4!

Stellt euch vor ein aktueller Ryzen 3000 wo ja noch Platz wäre hätte da einen Stack mit drauf, da würden selbst 512bit ausreichen...

Auch wäre die Leistung einer RDNA als Vollausbau mit mehr als 4096 Shadereinheiten grundsätzlich äußert Interessant wenn man schaut was da schon 23** schaffen, ob nun mit oder ohne HBM.
 
  • Gefällt mir
Reaktionen: Smartbomb und NMA
Chillaholic schrieb:
Allerdings ist AMD der einzige Hersteller gewesen der HBM2 im Endkundenbererich verwendet hat.
Das hat keine enorme FPS in Spielen generiert und die Preise waren dadurch auch deutlich zu hoch.
Die Skepsis gegenüber HBM auf Consumerkarten ist also tatsächlich begründet.

Klar verstehe Ich das. Für die 3 hat GDDR aber ausgedient.
HBM ist der "Next Step". So wie HDD auf SSD.
Glaube nicht dass AMD da 2005 dran gesessen und Entwickelt hat, um ihn dann wieder 2020 vom Markt zu nehmen und zu Begraben.

Die Preise von HBM2 dürften schon deutlich niedriger sein als die von HBM1.
Es kommt doch dabei auf die Produktionsgröße an.
HBM1 hat gezeigt, es ist machbar, es ist sinnvoll.
HBM2 hat gezeigt, der Markt sucht so ein Produkt (Speicher direkt! neben CPU/GPU Die!)
HBM3 wird dann wohl in solch großer Stückzahl produziert, dass GDDR6+ garnicht mehr Entwickelt wird.
Oder GDDR7. Macht auch wenig sinn. die PCBs werden durch GDDR nur "Aufgeplustert"
Vielleicht wird man die NANO-Serie von AMD noch groß aufziehen.
Denke dieser Formfaktor ist mitunter die nächste GPU-Größe.

Und ja, NV wird auch noch eine Consumer-HBM GPU auf den Markt werfen. Die wird auch Ordentlich leisten.
HBM auf Nvidia Karten = Ja geil!!
HBM auf AMD Karten = Zu teuer! lieber GDDR6.
Danach beschweren warum die AMD GPUs mehr Verbrauchen oder nicht so Stark sind.
Kennen das doch alles schon.
 
  • Gefällt mir
Reaktionen: Smartbomb, NMA und Andre Prime
Chillaholic schrieb:
Die Skepsis gegenüber HBM auf Consumerkarten ist also tatsächlich begründet.
Das mag natürlich sein. Aber man sieht ja auch deutlich, dass Consumeranwendungen (= Spiele) dieselbe Performance mit GDDR6 erreichen. Also warum sollte man dort deutlich teureren HBM verbauen? Wer OpenCL und Speicherdurchsatz will, muss dann halt tiefer in die Tasche greifen.
Aber ich denke, dass das die richtige Entscheidung ist. So kann man die Gamer mit günstigeren Modellen bei gleichbleibender Leistung bedienen - oder gleichbleibender Preis und man fährt damit mehr Gewinn ein. Es macht für die jeweiligen Zielgruppen also keinen Unterschied, weil die Performance trotzdem passt.
Die Bandbreite lässt sich ja auch bei GDDR6 noch relativ einfach durch ein dickeres Speicherinterface erhöhen. Ich sehe da einfach noch keinen Grund, um teuren HBM zu verballern, wenn die extra Bandbreite dann einfach verpufft, weil sie nicht benötigt wird.
 
-Ps-Y-cO- schrieb:
HBM1 hat gezeigt, es ist machbar, es ist sinnvoll.
Also ob die 4GB Fury (X) wirklich so sinnvoll war, werd ich einfach mal nicht bewerten. ;)
Die kam immerhin gleichzeitig mit ner R9 390(X) 8GB und war AMDs High End Produkt.

Ich bin gespannt was die Zukunft sagt, bisher war HBM bei AMD aber irgendwie ein großer Kostenpunkt oder hat schlicht wie bei HMB1 für unnötige Beschränkungen gesorgt und hat die Karten dadurch unattraktiv gemacht, während Nvidia mit GDDR sich weiterhin bei niedrigen Kosten verkauft hat wie geschnitten Brot.
 
Ich hoffe, dass das nicht als Gamer Karte vermarketet wird, noch eine Art von R7, waere nicht grade gut. Sie sollten es lieber trennen.
 
Zurück
Oben