News AMD-GPU: Arcturus wird eine Profi-Vega-Grafikkarte

smalM schrieb:
Sie haben gleichzeitig die Anzahl der CUs auf 32 halbiert. Es sind dieselben 4096 Shader wie bei den bisherigen Vegas. Ich vermute mal ins Blaue hinein, es wurden schlicht zwei CUs zusammengefaßt.
Bei Navi ist mir das bekannt, aber bei nem VEGA-Nachfolger?
 
konkretor schrieb:
Für die Gamer nicht spannend. Mal sehen wieviel RAM sie raushauen auf den Dingern und HBM nach wie vor genutzt wird.

Der Golem Artikel liefert direkte Links zu den Linux patchen, was genau an Hardware drin steckt.


https://www.golem.de/news/arcturus-linux-patches-zeigen-neue-arcturus-karte-von-amd-1907-142579.html

@Wolfgang Tut mir leid, finde die News bei Golem besser dargestellt.
Also bei Apple wird es eine bzw. zwei Vega mit 64GB HBM2 zum Preis eines Mittelklassewagens geben :o.

Bin mal auf die Hybrid-Speicher Lösung der Playstation 5 gespannt, da wird man dann wohl den Speicher sehen den AMD für seine Produkte forcieren wird.
 
Hayda Ministral schrieb:
Da wir hier nicht auf P3Dnow sind wird diese bloße Behauptung auch durch die tausendste Wiederholung nicht zum Fakt.

Stimmt, aber die Konsolen bieten eine garantierte Absatzzahl von 100+ Mio Chips; da frage ich mich eben, wie viele dedizierte Grafikkarten dem gegenüber stehen und worauf wohl der Fokus gelegt wird.
 
HaZweiOh schrieb:
Wer behauptet denn sowas dort?

Bitte nochmal lesen was ich schrieb. Ich bezog mich auf die Begeisterung, mit der sich die Kinder dort gegenseitig ihre Phantasien solange ins Ohr flüstern (*) bis sie schließlich selbst felsenfest daran glauben.

(*) "Stille Post 4.0"
Ergänzung ()

v_ossi schrieb:
[...] da frage ich mich eben, wie viele dedizierte Grafikkarten dem gegenüber stehen und worauf wohl der Fokus gelegt wird.

Und die Frage ist berechtigt. Ursprünglich wurde das aber nicht als Frage postuliert sondern als Behauptung.
 
teufelernie schrieb:
Ja, jetzt muss man mit ner VII nur noch professionell Netflix in 4k schauen können....

Das erledigt auch ein Fire Stick. Dazu muss man nicht zwingend einen Stromschlucker zu Hilfe nehmen
 
DrFreaK666 schrieb:
Das erledigt auch ein Fire Stick. Dazu muss man nicht zwingend einen Stromschlucker zu Hilfe nehmen

Der R580 Stromfresser konnte das aber noch... mimimi
 
Hayda Ministral schrieb:
mit der sich die Kinder dort
Wer sich da was zugeflüstert haben soll, habe ich nicht verfolgt, aber es gibt dort bedeutend weniger Kinder, weniger Forentrolle, und weniger inhaltsloses Gebrabbel als auf ComputerBase. Die Artikel auf Planet3Dnow gehen auch sehr in die Tiefe.
 
Zuletzt bearbeitet:
yummycandy schrieb:
Bei Navi ist mir das bekannt, aber bei nem VEGA-Nachfolger?
Deshalb 'ins Blaue hinein'. Wer weiß außerhalb von AMD schon, was wirklich alles in Vega steckt, der Chip hatte gegenüber Fiji immerhin um 3,5 Mrd. Transistoren zugelegt. Vielleicht gab's das in Vega 10 auch schon, es hat nur nicht richtig funktioniert? Es soll ja noch anderes geben, was AMD da nie richtig zum Laufen gebracht hat....
 
Hayda Ministral schrieb:
[...]Und die Frage ist berechtigt. Ursprünglich wurde das aber nicht als Frage postuliert sondern als Behauptung.

Stimmt, das hätte ich anders/besser formulieren können; stecken immerhin einige Vermutungen drin.

Jedenfalls denke ich, dass die Radeon Gruppe mit den Instinct Karten, also Vega und dem hier besprochenen Nachfolger Arcturus, sowie den Einnahmen aus dem Konsolengeschäft wesentlich zuverlässiger kalkulieren kann, als mit den schwankenden ~15% aus dem Desktop Markt, der durch sowas wie Mining auch noch schnell aus den Fugen geraten kann.
Darum habe ich für mich die (vielleicht vorschnelle) logische Schlussfolgerung gezogen, dass das R&D Budget eher dahin fließt und man Navi quasi braucht um das Konsolengeschäft für die PS4/XBOX One Nachfolger am Laufen zu halten und Destop Ableger nur als "Beiprodukt" auskoppelt werden.

Leider habe ich keine Zahlen zur Hand, die aufzeigen, mit welchen Bereichen AMD/RTG das meiste Geld verdienen. Das könnte die These wohl recht schnell untermauern oder ins Reich der Mythen befördern.
 
HaZweiOh schrieb:
Wer sich da was zugeflüstert haben soll, habe ich nicht verfolgt, aber es gibt dort bedeutend weniger Kinder, weniger Forentrolle, und weniger inhaltsloses Gebrabbel als auf ComputerBase. Die Artikel auf Planet3Dnow gehen auch sehr in die Tiefe.

Davon ab, ja im Forum von Planeten wird auch mal spekuliert. Aber a) ist das in der Regel den dort verkehrenden Anwesenden bewusst und b) hat manche Spekulation dort mehr Hand und Fuß als bei so manch anderen Seite "Fakten"....
Und es gab diverse Indizien die ja belegen, das AMD die neue Generation in Abstimmung mit Sony entwickelt hat. Und zu dem Zeitpunkt als diese Verträge schon abgeschlossen wurden, hat das für AMD sicherlich sehr viel Sinn gemacht. Denn finanziell waren Sie da noch angeschlagen (im Vergleich mit Intel und NV sind sie das ja heute noch). Von daher wenn es AMD richtig gemacht hat, hat man gewisse Kosten der Entwicklung schon abgesichert gehabt und wie andere hier richtiger weise sagen - diese Chips werden in PS 5 + xBox wohl deutlich mehr verkauft werden als für Desktop...
 
HBM ist vor allem für APUs eine geile Sache.
Stellt euch mal nen Ryzen 3400G vor der zusätzlich noch 4 GB HBM für die Grafik hat oder halt als L4 Cache...
 
-Ps-Y-cO- schrieb:
...
Ergo sollte AMD und NV + Intel lieber GDDR Verbauen wie schon seit 1997 ;)
...

Ich weiß, der Thread ist schon älter. Aber wo wurde 1997 schon (G) DDR RAM genutzt?
 
@andi_sco
Glaube nur auf der Geforce 256 mit gesonderter Kennzeichnung soweit ich das im Kopf habe
Sie war halt im vergleich zu SDR-Ram ein Stück teurer.
 
Zurück
Oben