News AMD Radeon Instinct MI100: Details zu Arcturus mit 8K Vega-Shader und 32 GB HBM2

Es basiert zwar auf Vega, aber es ist vermutlich anzunehmen, dass wie im Artikel beschrieben alle Gaming Geschichten "wegrationalisiert" worden sind und dass es bei 4 mal 16 ALU Aufbau bleibt.
Somit selbst mit doppelt so viel CUs, könnte am Ende eine nicht unwesentlich größer Chip dabei rauskommen. Am Ende mit 7nm+ vllt sogar nahe zu gleich groß wie Vega 20?! (Si bleibt wohl das gleiche)

Dieser Chip im Viererverbund mit Epyc dann im neuen kommendem Super Computer, verbunden socket to Socket über IF Bus gen 2.0.
Ich denk mal, dass AMD diese Karte in erster Linie auch auf Epyc und PCIE 4.0 Designt hat. Vllt nicht die fetteste GPU, aber vllt günstig und gut skalierbar durch den Einsatz mehrere GPU im Verbund zu Epyc der genug Lanes hat.
 
trane87 schrieb:
Gleichauf interessiert hier dann den Pöbel auch nicht. Für Marktanteile muss es besser als Nvidia sein.
Sehe ich nicht so. Oben Mitmischen würde für mich voll OK sein.
Ich werde mich aber auch nicht über den schon kolportierten "Nvidia-Killer"^^ (Hust) beschweren. ;)
Dann muss ich mir halt nen neuen Monitor kaufen um die Karte auszulasten :p
 
NVIDIA HAUPT QUARTIER:

" ICH BRAUCHE EINE NEUE LEDERJACKE!"
Ergänzung ()

wie bei den CPUS.. es gibt nur zwei Hersteller.
und einer der strampelt tapfer . AMD.
gäbe es die nicht ja dann die Nvidia 1031 gtz 1gbt und Intel 2 core-superheftig 600 hz.

Ich bin gespannt. Und 2020. wir haben nicht 2009... das war.

Finde es schön wenn mein Herbst-winter 24 core fett GPU bekommt. Dann werden die Spiele von neuem beginnen.
Wer würgt zuerst ab? REDSHIFT oder Karte. zum bleistift. ( nach dem test 2021 folgen dann 7, 8 weiter Renderkisten).... warten bitte warten TRRRRRRRRRRRRRRRRRReiber noch nicht fertig warten tut...
 
Zuletzt bearbeitet:
kleinstblauwal
Vermutlich Virtuell Rendern und es dann übere eine Grafikkarte ausgeben ?

Zu mindestens geht es bei Crysis auch über den CPU Renderer: (Epyc 64)
 
  • Gefällt mir
Reaktionen: s0UL1
Wattwanderer schrieb:
Ich hoffe AMD gelingt es Zweifel zu zerstreuen, dass sie nur durch die zugekaufte Vorsprung bei der Fertigung vorne mitspielt.

Bei den CPUs ist sie momentan ganz allein und ganz weit vorne aber bei den Grafikkarten kann sie ja nicht so souverän die mittlerweile "uralte" NVidia deklassieren?

Beim gerade auf den Markt eingeführten 5600 XT hätte ich gedacht sie könnte NVidia genauso alt aussehen lassen wie Intel aber da kann man sich ja für diese oder jene Marke entscheiden ohne einen klaren Fehlkauf zu tun?
Schau dir GCN zu RDNA an. Das ist in der Tat ein Wunder was AMD da gezaubert hat. Nvidia kann aber seit g80 die shader immer mehr verbessern.
Eine 5600XT die Mal so eben eine 2060 Frühstückt, obwohl sie ja nur eine 1660 schlagen soll, ist schon nicht schlecht. Nvidia hat ja auch nicht zum Spaß die Preise gesenkt. Und wer glaubt Ampere in 7nm wird Kreise um AMD ziehen, der glaubt auch an bezahlbare TIs ;)
 
  • Gefällt mir
Reaktionen: Sennox
kleinstblauwal schrieb:
But can it run Crysis?
So ohne Grafik-einheiten?

Mehr Kerne hat sie ja. Ok, noch nicht aber viel fehlt ja nicht mehr. :)

Die Gelegenheit will ich nicht verstreichen lassen ohne mal wieder in die Runde zu fragen warum GPU Computing nach anfänglichen Versuchen nie Mainstream wurde.

Was fehlt den GPUs, dass man lieber CPUs mit immer mehr Kerne ausstattet als GPUs in Richtung CPU zu trimmen? Ich meine Doppelte Fließkomma Rechenwerk wurde ja nachgerüstet genauso wie Physix Engine und jetzt RTX. Mit KI wird auch beworben. Warum macht man aus den GPUs nicht CPUs?

Ich mag schöne Hardware aber ich komme mir als Ultragelegenheitsspieler blöd vor die teuerste Komponente mit dem größten Stromverbrauch nur einige Stunden pro Woche und das auch nur für Spiele nutzen zu können.
 
AMD hat endlich wieder den GPU Markt erreicht,wenn ich an meine 9800 Pro denke oder die 9500@9700 per Mod, das waren Zeiten. Bitte kommt wieder : )
 
  • Gefällt mir
Reaktionen: Unnu
Also ich würde mich ja über einen starken Konkurrenzkampf freuen, aber bei AMD bin ich lieber vorsichtig, denn aktuell erinnert mich das ganze an die Situation von Vega. Dabei wurde auch im Vorfeld gehyped und geredet von über GTX 1080ti Performance usw.
Nüchtern betrachtet könnte uns hier ein starker Chip fürs Profisegment erwarten aber bei einigen Beiträgen hab ich das Gefühl, das schon wieder große Erwartungen aufgebaut werden, bei denen niemand mit Sicherheit sagen kann, dass es eingehalten wird.
 
Wattwanderer schrieb:
Warum macht man aus den GPUs nicht CPUs?
Weil GPUs Idiots savants sind: Sie können nur sehr Weniges, das dafür aber sehr sehr gut; alles Andere hingegen ganz schlecht oder gar nicht. Eine CPU hingegen ist ein Generalist.
 
  • Gefällt mir
Reaktionen: Unnu, Rockstar85, s0UL1 und eine weitere Person
Wenn wir schon bei unsinnigen Vergleichen sind ...

GPUs verhalten sich zu CPUs wie eine Armee dressierter Affen zu einer Gruppe von Dompteuren :D

Davon abgesehen gefällt mir, was AMD dort mutmaßlich im Köcher hat. Nvidia liefert mit ihren Tensor-Kernen zwar schon lange vergleichbare INT8-Performance, aber die rohe Zahl an Rechenwerken ist schon heiß. Hoffentlich beginnt AMD auch bald mit einem Programm ähnlich Nvidias "Academic GPU Seeding", dann bemühe ich mich auch mal um so ein Teil.
 
impaled schrieb:
AMD hat endlich wieder den GPU Markt erreicht,wenn ich an meine 9800 Pro denke oder die 9500@9700 per Mod, das waren Zeiten. Bitte kommt wieder : )
Du kannst zB. (Referenzdesigns) 5700er auf eine 5700XT biosflashen.
Das ging auch damals mit 6950->70 und 290->X. Vega 56->64 war aber glaube ich riskanter/unwarscheinlicher.
Teralios schrieb:
Man wird bei NVIDIA auch sehen müssen, in wieweit ihr aktueller Ansatz fast alles über spezielle ALUs zu lösen aufgehen wird.
Nvidia hat die Aufteilung in Gaming(Grafik) und Compute/AI ja schon angefangen mit Volta damals.
Warum die Tensor Cores aber noch in allen RTX Gaming Grafikkarten stecken, weiß ich aber auch nicht.
Ich bin jedenfalls sehr gespannt auf März wenn Nvidia Ampere präsentiert, sprich RTX 3000 und Tesla V100 Nachfolger.
Mal sehen wie sich dann BigNavi gegen eine 7nm Nvidia Karte behaupten wird.
 
pipip schrieb:
Zu mindestens geht es bei Crysis auch über den CPU Renderer: (Epyc 64)
Das aktuellste Video mit dem 64-Kerner aus dem Hause Threadripper läuft nochmal flüssiger.

Wattwanderer schrieb:
Was fehlt den GPUs, dass man lieber CPUs mit immer mehr Kerne ausstattet als GPUs in Richtung CPU zu trimmen?
Die GPU ist dafür da, sehr viele gleiche Berechnungen auf sich ändernde Daten auszuführen. Die CPU kann alle Berechnungen die ihr aufgegeben werden, stark unterschiedlich haben und trotzdem viel leisten. Sie ist also vielfältiger, was die Aufgaben angeht. Dafür kann sie nicht so viele Daten gleichzeitig verarbeiten wie eine GPU.

Gutes Beispiel dafür sind auch die erwähnten Tensor-Kerne. Die können eben nur eine spezielle Matrizenberechnung. Wenn die nicht benötigt oder verwendet wird, liegen sie brach.
 
Colindo schrieb:
Die GPU ist dafür da, sehr viele gleiche Berechnungen auf sich ändernde Daten auszuführen. Die CPU kann alle Berechnungen die ihr aufgegeben werden, stark unterschiedlich haben und trotzdem viel leisten. Sie ist also vielfältiger, was die Aufgaben angeht. Dafür kann sie nicht so viele Daten gleichzeitig verarbeiten wie eine GPU.

Zilog Z80 war eine CPU. Sie bestand laut Wikipedia aus weniger als 10.000 Transistoren.
Pentium aus unter 5 Mio.

Wäre es denn bei den Abermilliarden von Transistoren in GPUs gar nicht möglich mit ein paar Milliönchen zusätzlichen Transistoren die CPU Funktionalität nachzurüsten?

Liegt es eventuell daran, dass der Paralellisierung von Programmen außer bei Grafik und spezielle wissenschaftliche Berechnungen Grenzen gesetzt sind und sich der Aufwand daher nicht lohnt?
 
Nein, so einfach ist ist dies nicht. Die CPU Funktionsblöcke sind derart hoch integriert und komplex (und verbrauchen viel Platz) das es nicht möglich ist CPU Kerne dicht wie Shader zu packen.
 
  • Gefällt mir
Reaktionen: LukS
Scheint nur logisch, GCN hat starke GPGPU-Performance und verliert jetzt die unnützen Gaming-Altlasten. Aber schon krass, dass sie im Vergleich zur Radeon VII im selben Prozess die Einheiten verdoppeln o.O

Wattwanderer schrieb:
Ich hoffe AMD gelingt es Zweifel zu zerstreuen, dass sie nur durch die zugekaufte Vorsprung bei der Fertigung vorne mitspielt.
Man kann das Problem der Leistung/Leistungsaufnahme halt von mehreren Seiten angehen. Nvidia ging den Weg der Optimierung in der Architektur und dem Nutzen alter Fertigung - kostet mehr R&D bei der Arch und man hat weniger Chips/Wafer.
ATi/AMD steckt mehr R&D in die Chipfertigung, so hat man früher kleinere Nodes, spart ebenfalls Strom, taktet höher und mehr Chips pro Wafer.
Bei der HD5870 hat sich das ausgezahlt, die Karte war schneller und günstiger herzustellen als bei der Konkurrenz. Wenn die Fertigung fest steckt (28nm), hat man dann aber aufs falsche Pferd gesetzt. Momentan scheint es ja mit TSMC wieder einen verlässlichen Partner zu geben und wie es scheint, wird in der µArch gut was nachgeholt. Ich persönlich halte ja den Nvidia-Ansatz für schlauer, der Gunpei Yokoi Weg mit dem zu arbeiten was man hat und günstig verfügbar ist, ist weniger Anfällig für Probleme von außen.
 
MrNejo schrieb:
Also ich würde mich ja über einen starken Konkurrenzkampf freuen, aber bei AMD bin ich lieber vorsichtig, denn aktuell erinnert mich das ganze an die Situation von Vega. Dabei wurde auch im Vorfeld gehyped und geredet von über GTX 1080ti Performance usw.

RDNA ist pro Takt und Shader bereits auf dem Niveau von Turing.
Und nur minimal ineffizienter als diese weil sie über den Sweet Spot getaktet sind. Die Voraussetzungen sind also sehr viel besser als zu GCN bzw. Vega Zeiten. Wobei, wenn man jetzt sieht was AMD bei Renoir noch aus Vega holen konnte ist das beachtlich.

Die RX5700XT ist so hoch getaktet, dass sie die RTX 2070 schlagen kann und man entsprechende Preise
verlangen kann. Takte die Karte auf 1500 statt 1900 und sie verliert ein paar Prozentchen und braucht noch
130-140W. Da kann Turing nicht mithalten.

Die nächste Gen der RDNA Karten, welche wir dieses Jahr sehen werden, dürften einiges effizienter und noch schneller werden. Ich gehe stark davon aus, dass ein grosser RDNA2 Chip eine RTX 2080 TI plätten wird.
Das traue ich mich zu wetten....
 
modena.ch schrieb:
RDNA ist pro Takt und Shader bereits auf dem Niveau von Turing.
Und nur minimal ineffizienter als diese weil sie über den Sweet Spot getaktet sind. Die Voraussetzungen sind also sehr viel besser als zu GCN bzw. Vega Zeiten. Wobei, wenn man jetzt sieht was AMD bei Renoir noch aus Vega holen konnte ist das beachtlich.
Also erstens habe ich nie angezweifelt, dass die technischen Voraussetzungen anders seien. Mein Vergleich bezog sich auf die „Hype-Kultur“. „Was AMD bei Renoir noch aus Vega herausholen konnte“ wissen wir auch nicht oder gibt es erste unabhängige Testergebnisse, solche Aussagen sind genau das was ich meinte, AMD nennt bis zu X% bessere Performance und schon wird da alles mögliche hineininterpretiert für mögliche Desktop Karten, obwohl die reale Mehrleistung eventuell niedriger liegt.
modena.ch schrieb:
Die RX5700XT ist so hoch getaktet, dass sie die RTX 2070 schlagen kann und man entsprechende Preise
verlangen kann. Takte die Karte auf 1500 statt 1900 und sie verliert ein paar Prozentchen und braucht noch
130-140W. Da kann Turing nicht mithalten.
Und warum genau kann ich das nicht auch mit einer RTX 2070 machen? Zudem ist es immer noch eine 12nm Karte vs 7nm, warum sollte der Sprung bei Nvidia geringer ausfallen?
modena.ch schrieb:
Die nächste Gen der RDNA Karten, welche wir dieses Jahr sehen werden, dürften einiges effizienter und noch schneller werden. Ich gehe stark davon aus, dass ein grosser RDNA2 Chip eine RTX 2080 TI plätten wird.
Das traue ich mich zu wetten....
Jedem steht es natürlich frei zu spekulieren, ob Big Navi schneller wird als eine RTX 2080ti? Wir werden sehen, aber alles andere wäre sogar enttäuscht, schließlich kam diese Ende 2018(!) auf den Markt. Der Konkurrent für Big Navi werden die Karten der nächsten Generation von Nvidia, hoffentlich ist man dann konkurrenzfähig. Um zu meinem ursprünglichen Post zurückzukommen, lasst das hypen einfach sein sonst gibt es wieder lange Gesichter wie bei Vega. Man wird doch lieber positiv überrascht.
 
  • Gefällt mir
Reaktionen: adAstra
Zurück
Oben