Notiz Profi-GPU: AMD bestätigt MI100 mit CDNA für dieses Jahr

Summerbreeze

Lt. Commander
Dabei seit
Mai 2019
Beiträge
1.782

danyundsahne

Lt. Commander
Dabei seit
Okt. 2007
Beiträge
1.756
Ich verstehe nicht ganz wie man davon ausgehen kann oder bezweifelt, ob sich etwas an der GCN Arch geändert hätte....das wird sicher nicht nur ein doppelter Vega20 sein!

Man hat gesehen was von GCN -> RDNA passiert ist und man mit Turing was Shaderleistung angeht gleichgezogen ist. Auch wenn noch Teile von GCN enthalten sind.
Die Shaderleistung von der 4096 Shader V64 sind langsamer als die 2304 Shader der RX5700.
Da dafür ist einiges umgekrempelt worden bei GCN.

Und ich denke, dass unter der Haube mit CDNA auch einiges passiert ist, obwohl evtl noch ein Rest GCN drin steckt.
Komplett neu erfinden wird sich das Rad nicht, bei Ampere steckt auch noch etwas Volta drin.
Das baut alles auf dem Vorgänger auf, mehr oder weniger.

Und AMD nennt CDNA nicht umsonst CDNA. Da wird schon was rumkommen. Bin jedenfalls gespannt wie Schmitz Katze wenn es grob ab August/September mit den Neuvorstellungen beginnt. So einen Herbst hatten wir glaub noch nie?

Tiger Lake, Renoir, RTX3000, Big Navi, Arcturus, ZEN3! BAM
 

MrNejo

Cadet 4th Year
Dabei seit
Juni 2018
Beiträge
115
Das es so kommt ist sicher. Die Frage ist wann. Aber ich rechne auch mit dieser Generation, da NVIDIA kräftig zulegen wird.
Na klar. 😀
Wenn die Ansage stimmt, das 50% mehr Leistung per Watt kommt, dann ist das ab Herbst die neue Mittelklasse.
Und für Mittelklasse bezahlt niemand mehr als 600€.
Genau die neuen Generationen am Ende des Jahres werden die größten Sprünge der letzten Jahre. Natürlich werden die Preise nicht ins Bodenlose fallen, denn das wäre weder in Nvidias noch in AMDs Interesse, jedoch wird man schon spürbar mehr Leistung für das gleiche Geld bekommen und 2080ti Leistung für 600€ ist nun wirklich kein unrealistischer Wert.
 

Makso

Commander
Dabei seit
Okt. 2006
Beiträge
2.524
Kann sein, wäre aber komisch, dass man dazu bis heute nichts gesagt hat, wenn man da was großes in der Pipeline hat. Man spricht ja auch schon über Features von CDNA2 (z.B. die besondere Speicherverwaltung).
AMD verhält sich bei den Grafikkarten genau so wie bei Zen. Still sein, abwarten und dann draufhauen.
Schauen wir was kommt, Infos gibt es kaum welche.
 

Botcruscher

Commander
Dabei seit
Aug. 2005
Beiträge
2.946

Shoryuken94

Rear Admiral
Dabei seit
Feb. 2012
Beiträge
6.050
@Makso

Wie gesagt, Sie haben schon Details zu CDNA2 also dem Nachfolger des im Artikel besprochenen Produktes genannt. Hier hat man z.B. über die Infinity Architektur gesprochen, um GPUs und CPUs Speicherseitig einfacher zusammenzufassen. Man hat schon vor Ewigkeiten bestätigt, dass dieses Jahr Echtzeit Raytracingkartenkommen werden.

Hätte man einen Matrizenbeschleuniger für die GPUs in der Planung, hätte man sicherlich auch dazu erste Informationen, sei es durch Patente, wahrscheinlich aber hätte man darüber sogar gesprochen. Da man dazu bisher 0 gehört hat, sehe ich da für dieses Jahr eher schwarz, dass da was in die Richtung kommt. Zukünftig vielleicht.

Vielleicht überrascht und AMD da, dann hätten Sie aber in der Kommunikation ziemlich gepennt, denn das wäre einer der größten Schritte der letzten Jahre. Deutlich wichtiger als Raytracing und und dot hat man sich ja auch geäußert.

Das heißt nicht, dass CDNA nicht in anderen Bereichen sehr gut abschneiden werden.
 

wolve666

Lt. Commander
Dabei seit
März 2009
Beiträge
1.222
Die Fertigungstechnik ist mittlerweile so unglaublich teuer geworden, das die Preise von vor 5-6 Jahren wohl nicht mehr wieder kommen werden. Dafür sind die Stückzahlen bei den Gamingkarten auch am schrumpfen.
Ist meiner Meinung nach Quatsch. Die "grünen" Kunden haben sich selbst solche Preise zuzuschreiben. Weil jeder Preis für ein bisschen mehr an Performance bezahlt wurde, egal ob das sinnvoll war und AMD bessere/gleichwertige Hardware anbot. Oh, AMD kann kein (noch unnützes) raytracing? --> Nivea..AMD? Sind zu Heiss, laut etc PP Blabla. Selbst offensichtlicher betrug wurde hingenommen und fleissig weiter deren Schrott gekauft, siehe 970 Speicherbetrug. Der heute ja immer noch als "Feature" verkauft wird...
AMD wäre übrigens schön blöd, wenn sie gleiche Leistung zu viel niedrigeren Preisen anbieten, aber das raffen ja viele auch nicht. AMD ist ne Firma und will gewinne erwirtschaften, keine Almosen eintreiben.
 

DrFreaK666

Lt. Commander
Dabei seit
Dez. 2011
Beiträge
1.298
Und wenn es dann so kommt, bin ich sehr auf die Reaktionen einiger hier im Forum gespannt. Ich verstehe nicht was daran überhaupt so unrealistisch klingt.
weil schon die Radeon VII für über 700€ verkauft wurde
Ergänzung ()

2080 TI Level ist das zukünftige Performacesegment. Wenn AMD das nicht Jahre später in 7nm pakt können die mit RDNA2 nach Hause gehen. Der Abstand ist gewaltig.
Der 5700XT fehlen ca. 40% zur 2080Ti. Das schaffen sie bestimmt
 

Zeitwächter

Bisher: itsBK201
Lt. Commander
Dabei seit
Apr. 2017
Beiträge
1.425
@DrFreaK666
Hab dich jetzt nicht ganz verstanden, aber die Radeon VII bot 16GB HBM2 Speicher, gut optimiert(OC/UV) kommt sie schon an eine 2080Super, bzw teilweise auch an eine 2080Ti ran.
Dafür 700€ ist doch gar nicht so verkehrt im Vergleich zu den Nvidia GPUs. Zu bedenken ist auch, HBM2 Speicher treiben den Preis auch etwas hoch :/

Die 5700XT ist in Games oft 25-30% langsamer als die 2080Ti ^^
 

PS828

Captain
Dabei seit
Juni 2019
Beiträge
3.842
Bis auf den KI Bereich können die mit MI100 sicherlich gut mithalten. Ich könnte mir sogar vorstellen dass sie Nvidia im Bereich computing schlagen können indem FP32 und 64 extrem zunimmt. Nvidia hat ja bereits gezeigt dass in diesem bereich bei ihnen nicht viel passiert ist.

Die GA100 sind Monster für KI aber in den anderen Bereichen sehe ich AMD durchaus auf Höhe oder gar vorne.
Ergänzung ()

Für meine Kaufentscheidung ist es warscheinlich unerheblich. Dafür sind die die als Privatmann einfach zu teuer. Da kommt warscheinlich zusätzlich zur RDNA2 oder Ampere Karte einfach noch eine Radeon Pro VII dazu und gut ist.
 

DrFreaK666

Lt. Commander
Dabei seit
Dez. 2011
Beiträge
1.298
@DrFreaK666
....Die 5700XT ist in Games oft 25-30% langsamer als die 2080Ti ^^
Ich habe mir hier in Computerbase Mal die Performance von Spielen angeschaut:
  • Desperados 3 in 2160p: RTX 2080Ti 54% schneller als 5700XT
  • Valorant 4k: 45% schneller
  • SR3 Remaster 1440p: 22% schneller
  • Mafia 2 Remaster 1440p: 50% schneller
  • Gears Tactics 1440p: 41% schneller
  • XCOM Chimera Squad 1440p: 67% schneller
  • Ghost Recon Breakpoint 1440p: 41% schneller
  • RE3 Remake 1440p: 54% schneller
  • Doom Eternal 1440p: 42% schneller
  • PUBG 4k: 75% schneller
  • WOW 4k: 56% schneller
  • WoT 4k: 64% schneller
  • CoD Warzone 1440p: 34% schneller
  • GTA V 4k: 45% schneller
  • Overwatch 4k: 58% schneller
  • Destiny 2 4k: 51% schneller
  • CS GO 4k: 41% schneller
  • Rainbow Six Siege 4k: 56% schneller
  • Wolcen 1440p: 55% schneller
 

MrNejo

Cadet 4th Year
Dabei seit
Juni 2018
Beiträge
115
weil schon die Radeon VII für über 700€ verkauft wurde
Die Preise sinken aufgrund von Marktsättigung (auch der Grund warum Nvidia Turing brachte obwohl Pascal ausreichend gut dastand), außerdem war die Radeon VII eher eine Überbrückung zu Navi um nicht komplett nackt dazustehen und ist inzwischen EOL.
@DrFreaK666
Die 5700XT ist in Games oft 25-30% langsamer als die 2080Ti ^^
Es sind fast immer mehr als 30%, was zudem im Umkehrschluss bedeutet das die 2080ti >40% schneller ist (Computerbase 1440p: 46%).
 

DrFreaK666

Lt. Commander
Dabei seit
Dez. 2011
Beiträge
1.298
Die Preise sinken aufgrund von Marktsättigung (auch der Grund warum Nvidia Turing brachte obwohl Pascal ausreichend gut dastand), außerdem war die Radeon VII eher eine Überbrückung zu Navi um nicht komplett nackt dazustehen und ist inzwischen EOL.

Es sind fast immer mehr als 30%, was zudem im Umkehrschluss bedeutet das die 2080ti >40% schneller ist (Computerbase 1440p: 46%).
Mir ist schon bewusst dass sie EOL ist, die Karte kostete laut Computerbase-Test am Anfang 729€
 

pipip

Fleet Admiral
Dabei seit
Jan. 2011
Beiträge
10.524
Man hat gesehen was von GCN -> RDNA passiert ist und man mit Turing was Shaderleistung angeht gleichgezogen ist. Auch wenn noch Teile von GCN enthalten sind.
https://en.wikipedia.org/wiki/RDNA_(microarchitecture)
Starting with the architecture itself, one of the biggest changes for RDNA is the width of a wavefront, the fundamental group of work. GCN in all of its iterations was 64 threads wide, meaning 64 threads were bundled together into a single wavefront for execution. RDNA drops this to a native 32 threads wide. At the same time, AMD has expanded the width of their SIMDs from 16 slots to 32 (aka SIMD32), meaning the size of a wavefront now matches the SIMD size.
Man muss aber bedenken, dass RDNA1 quasi noch wie GCN gefüttert wird und RDNA2 angeblich ja dann seine ersten echten Treiber bekommen sollte. Allein das könnte schon bei RDNA2 einiges an Performance bringen.
Aktuell macht es RDNA ja deshalb schon besser als GCN, weil 64 Threads (Wave) auf 2 x 32 threads aufgeteilt werden und wesentlich früher bei "nichtgebrauchen" abgebrochen werden, oder bei "Abhängigkeiten" verfügbar sind. Die Echtzeit verbessert sich also. NV Arch war ja (falls ich mich nicht täusche) immer schon 32 threads. Games interessiert doppelte Genauigkeit eben nicht.
AMD GCN Arch punktet mit 64 threads deshalb so bei doppelte Genauigkeit. Der Code ist auch passend dafür ausgelegt.
Somit sieht ja Vega20 nicht bei allen Punkten gegen NV alt aus, besonders wenn es um Preis/Leistung in diesem Segment geht.

Wie CDNA aussehen wird, ist schätze ich in erster Linie davon abhängig, für was AMD diese Arch primär vorsieht. Bleibt es zum Bsp bei 64 threads ? oder erhöht man es sogar auf 128 ? Oder wird es vllt sogar weniger als bei RDNA ?

Was man noch sagen kann, CDNA wird sicherlich auf Epyc und dessen Struktur von IF-Bus aufbauen. Idee ist es ja, dass das Ökosystem quasi ne "APU" darstellt. Kann gut sein, dass im Verbund mit Epyc Aufgaben auch verteilter laufen.

ps: bin kein Experte, sondern gebe nur das weiter, was ich so lese.
 
Zuletzt bearbeitet:

MrSecretYT

Newbie
Dabei seit
Juni 2020
Beiträge
4
Was man eben nicht einrechnen kann ist die Performance-Verbesserung bzgl. der Arckitektur. HInzu kommt dann die Veränderungen in den Treibern, denn auch die werden anders aufgebaut sein, da alles auf Gaming ausgerichtet sein wird, auch schwer das einzuschätzen.

Dann weitere Faktoren wie thermische Verlustleistung und die dafür bereitgestellten Kühllösungen des Marktes.

Das Selbe sehe ich bei CDNA, nur ist es da noch schwieriger das Ganze einzuschätzen, gab ja bisher kein CDNA 0,5 oder was auch immer^^
 

Zeitwächter

Bisher: itsBK201
Lt. Commander
Dabei seit
Apr. 2017
Beiträge
1.425
@DrFreaK666 @MrNejo
Ich hab mir da einfach nur paar Videos zu Vergleiche in Games angeschaut, und ja je nach Game schwanken die Werte, mal waren es ca 25% und mal waren es 50%.

Würde es dann aber nicht auch bedeuten, dass "Big Navi" mit doppelter RX 5700XT Shaderzahl und potenziell höherer IPC, Takt und evtl Treiber um die 60% schneller als eine 2080Ti sein sollte?
Frei nach dem Motto: 2080Ti sind 140% und 5700XT sind 100%, dann wäre "Big Navi mit dieser Denkweise vllt 210% oder 220%.
 

MrNejo

Cadet 4th Year
Dabei seit
Juni 2018
Beiträge
115
@itsBK201 Also nehmen wir einfach den aktuellen Computerbase 4K Benchmark als Ausgangspunkt dann wäre eine Navi 2X Karte mit doppelter Power ca. 30% schneller als eine 2080ti. Dabei sind natürlich einige Fragen ungeklärt: Skalieren 100% mehr Shader auch mit 100% Leistung? Sind die Shader gleich stark (IPC Verbesserungen)? Wie stark werden die Karten am Sweetspot betrieben? Etc. Trotzdem denke ich persönlich, dass die 30% ein relativ guter Anhaltspunkt sind (sagen wir +-15%).
 

Summerbreeze

Lt. Commander
Dabei seit
Mai 2019
Beiträge
1.782
@DrFreaK666 @MrNejo
Ich hab mir da einfach nur paar Videos zu Vergleiche in Games angeschaut, und ja je nach Game schwanken die Werte, mal waren es ca 25% und mal waren es 50%.

Würde es dann aber nicht auch bedeuten, dass "Big Navi" mit doppelter RX 5700XT Shaderzahl und potenziell höherer IPC, Takt und evtl Treiber um die 60% schneller als eine 2080Ti sein sollte?
Frei nach dem Motto: 2080Ti sind 140% und 5700XT sind 100%, dann wäre "Big Navi mit dieser Denkweise vllt 210% oder 220%.
So gut skaliert das ganze nicht.
Die ti liegt nach dem 3dcenter Index irgendwo zwischen 46 und 52% vor der XT. Der Level sollte also schon in Etwa knapp getroffen werden.
Wenn für den BigChip ti +40% heraus kommen würden, wäre das schon sehr gut. 30% nach heutigem Stand auch nicht schlecht. Nur falls NV eine richtige Schüppe oben drauf legt dürfte das ziemlich Blöd aussehen.
Niemand sollte meinen, das AMD jetzt "mal Eben" Nvidia weg haut. Die werden sich das Krönchen nicht so einfach weg nehmen lassen und zur Not eben über den Strom gehen.

Ich bin auch gespannt wie ein Flitzebogen. Wir werden definitiv einen Leistungssprung von beiden sehen und zu wenig Leistung werden wir wir erst einmal nicht haben. Egal was man käuft. :)
 

Rockstar85

Commodore
Dabei seit
Sep. 2004
Beiträge
4.222

PS828

Captain
Dabei seit
Juni 2019
Beiträge
3.842
Durch Apple besitzt AMD durchaus eine gute Integration abseits von Cuda. Zumal auch viele andere Programme hervorragend GPU beschleunigt werden können ohne CUDA. Ich hab in resolve beispielsweise noch kein einziges Mal Cuda vermisst (nur der VRAM ist bei Full HD schon knapp, 4 GB sind wenig, deshalb bin ich froh bei UHD zukünftig 16 GB VRAM zu haben) .

Welche Programme gibt's denn noch die ausschließlich Cuda benutzen? Bis auf paar alte Kamellen gibt's da nicht mehr viel. ROCm von AMD ist ja auch nicht so schlecht aufgestellt wobei*die Karten ihre Stärken auch anderswo haben. Vulkan.. Open CL /GL..
Ergänzung ()

Zudem sind es im KI Bereich eher die Tensor cores die Nvidia hier den entscheidenden Vorteil geben. Wie schon erwähnt hat sich laut Nvidia bei den Cuda Einheiten nicht viel getan bei Ampere GA100
 
Top