News RDNA 2: Next-Gen-Radeon erscheint vor den Next-Gen-Konsolen

Status
Für weitere Antworten geschlossen.
Taxxor schrieb:
aber auch danach mit der 290X von 2013.

Und auch vor der 7970 war man mit der 5870 oder der 4890 auch oben mit dabei.

Eine wirkliche Durststrecke begann erst mit der 390X

An die 4890 kann ich mich nicht erinnern, an die HD5870 allerdings schon. Habe sie damals nur wegen das RGSSAA gekauft :)
 
DrFreaK666 schrieb:
An die 4890 kann ich mich nicht erinnern
War meine zweite selbst gekaufte ATI Karte und hatte damals meine 8800GTS 512 abgelöst. 80-120% Mehrleistung je nach Auflösung und AA Settings waren schon heftig dafür dass nur 2 Jahre dazwischen lagen und die 8800 GTS 512 eine der besten Nvidia Karten von 2007 war.
Die war für die Zeit sehr gut
Anmerkung 2020-06-05 153228.png



Bei der 9700Pro von 2002 gehörte ATI übrigens noch nicht zu AMD^^
 
Terrascale war als Architektur viel erfolgreicher als GCN oder RDNA.
Damals hatte ATI/AMD auch einen höheren Marktanteil.
Deswegen war der Kauf von ATI auch so teuer für AMD.
Und seit Fermi hat Nvidia den Marktanteil immer weiter ausgebaut, bis zu dem extremen Ungleichgewicht bis heute bei dGPUs.
 
Taxxor schrieb:
2/3 der 275W der 2080Ti würde bedeuten ca 180W, das erscheint mir sehr unrealistisch.

Selbst wenn du die 50% Perf/Watt komplett in geringeren Verbrauch umrechnest, dann kämst du mit 40CUs bei 1850MHz auf 150W (5700XT TBP x 0,66).

Jetzt hast du 60 CUs, 33% mehr, der Verbrauch steigt also um mindestens 20%, wenn das SI usw gleich bleibt.
Damit landest du bereits bei 180W und bist immer noch bei 1850MHz
Unterschätze niemals den Einfluss der Taktbarkeit eines Chips auf dessen Strombedarf, siehe Fury X vs. R9 Nano.
Bereits bei der R9 Nano wurde trotz de gleichen Chip Ausbaustufe prozentual deutlich mehr Strom eingespart als man an Taktfrequenz verlor und die aktuellen Radeons haben nicht wirklich viel Spielraum nach oben ohne das deutlich mehr Spannung rauf muss und der Strombedarf explodiert. Sind die Chips also mit dem neuen Prozess besser taktbar könnte man selbst bei gleicher Taktfrequenz schon strom sparen indem weniger Spannung dafür erforderlich ist.
Die Anzahl der CUs sagt übrigens herzlich wenig über deren Komplexität aus. Stecken bei den neuen Chips mehr Shader pro CU sind sie entsprechend leistungsfähiger. Einen ähnlichen Umbau gab es meiner Erinnerung auch mal bei nvidia als man mehr Shader pro Cluster unterbrachte.
 
Wadenbeisser schrieb:
Sind die Chips also mit dem neuen Prozess besser taktbar könnte man selbst bei gleicher Taktfrequenz schon strom sparen indem weniger Spannung dafür erforderlich ist.
Aber dieser Umstand wäre ja dann bereits in den 50% Perf/Watt enthalten.
Genau wie der Umstand, dass die IPC verbessert wurde.

Wenn das sagen wir 10% sind, dann würde eine 40CU RDNA2 Karte ja auf die Leistung einer 40CU RDNA1 Karte kommen und dabei 10% niedriger takten müssen.
Also statt 1850MHz bei der 5700XT nur noch 1670MHz und damit hat man dann die gleiche Performance.
Darauf die +50% Perf/Watt also 150W für 40CUs bei 1670MHz.



Allerdings ist die Rechnung meinerseits, die 50% Perf/Watt nur in 50% weniger Verbrauch bei gleicher Leistung umzurechnen, schon die pessimistischste Annahme, die man in der Hinsicht machen kann^^

Die optimistischste, also das andere Extrem, wären 50% mehr Performance bei gleichem Verbrauch und in dem Fall würde man durch Taktsenkung bis man diese +50% Performance wieder verliert, deutlich weniger als 2/3 des Verbrauchs für die gleiche Leistung haben.


Realistisch könnte man davon ausgehen, dass es sich ähnlich wie bei Vega64 vs 5700XT verhält: +14% Performance bei -23% Verbrauch, was ebenfalls in exakt +50% Perf/Watt endet.
 
Zuletzt bearbeitet:
@matty2580

Ich sage mal jein denn terascale hatte ein Problem damit die Leistung auf die Straße zu bekommen.
Man bekam zwar viel mehr shader unter aber hatte ein Problem damit diese auch wirklich auszulasten. das verbesserte sich mit GCN deutlich. GCN fiel dann aber in den Zeitraum wo nvidia massiv anfing zu mauern, was zweifelsohne von Erfolg gekrönt war. Erst grenzte man sich mitanz einfach GPU Physx ab bei der man die Konkurrenz in einen möglichst ineffizienten CPU Fallback schickte, ging weiter über die Gameworks Blackbox die erst nach und nach aufgeweicht wurde und steckte massiv Geld in die "Unterstützung" der Spiele Hersteller, wodurch hatürlich auch einiges an optimierten Code für die eigene Architektur mit eingeflossen sein dürfte. Zusätzlich ritt man dann auf der Welle der DX11 unzulänglichkeiten, welche die Konkurrenz ausbremste und hatte entsprechend wenig Interessen an den neuen API, welche dieses Problem gelöst hätten. Die wurden erst RTX relevant mit dem man sich erneut abgrenzen konnte.
Nvidias Erfolg lebt ganz einfach von der Ausgrenzung und Ausbremsung der Konkurrenz.
 
  • Gefällt mir
Reaktionen: Sennox
Taxxor schrieb:
Die Folien zu RDNA2 hatten als großen Punkt bereits IPC Improvements drauf stehen, daher wären 0% ausgeschlossen und die 10% eher konservativ.


2/3 der 275W der 2080Ti würde bedeuten ca 180W, das erscheint mir sehr unrealistisch.

Selbst wenn du die 50% Perf/Watt komplett in geringeren Verbrauch umrechnest, dann kämst du mit 40CUs bei 1850MHz auf 150W (5700XT TBP x 0,66).

Jetzt hast du 60 CUs, 33% mehr, der Verbrauch steigt also um mindestens 20%, wenn das SI usw gleich bleibt.
Damit landest du bereits bei 180W und bist immer noch bei 1850MHz

Bezüglich der IPC würde ich das auch so sehen und 10% als realistisch betrachten, allerdings ist es schwer vorauszusagen wie viel es am Ende wirklich werden. Daher wollte ich bewusst eher unter als übertreiben um einigen die das skeptischer sehen den Wind aus den Segeln zu nehmen..

Die 2/3 bezogen sich auf eine OC, RTX2080ti mit 2150 MHz die im folgenden Test 340W verbrauchte.
https://www.hardwareluxx.de/index.p...force-rtx-2080-ti-black-im-test.html?start=21
2.15GHz:
Power 2080ti.png

2/3 davon würde ca. 225W entsprechen was bei ebenfalls 2150 MHz sicherlich etwas knapp bemessen wäre.
Würde daher eher bei 64CU's und 2Ghz. auf ca. 225W
und bei 2.15Ghz analog zur 2080 super auf ca. 250W tippen.

Der GPU Part des XBox SoC als Vergleich, verbraucht zum Beispiel sicher deutlich weniger als 200W daher
sollte das schon in etwa hinkommen.
 
@Taxxor

Nicht unbedingt denn wenn die Veränderungen durch den neuen Fertigungsprozess darin nicht enthalten sind kommt das nochmal on top. Wir wissen leider zu wenig darüber, weshalb ich mit der Einschätzung recht vorsichtig bin.
 
Wadenbeisser schrieb:
Nicht unbedingt denn wenn die Veränderungen durch den neuen Fertigungsprozess darin nicht enthalten sind kommt das nochmal on top.
Da sie beim Vergleich zwischen GCN und RDNA1 und deren +50% enthalten waren, ist es unwahrscheinlich, dass sie jetzt nicht enthalten sein werden.

Und mit der Annahme, dass sie enthalten sind, ist man doch bereits vorsichtig, ansonsten würde man die Performance ja noch höher einschätzen^^
 
  • Gefällt mir
Reaktionen: Colindo
Die HD 5870 ist selbst hier im Forum legendär, und auch heute erinnern sich viele gerne zurück.

Und selbst die GPU-Preise waren damals sehr niedrig, weil es noch echte Konkurrenz gab, also kein Vergleich mit heute. Seit Navi ist man bei AMD wieder auf dem richtigen Weg, aber es wird noch sehr lange dauern bis die nächste GPU-Legende daraus entstehen kann. Wahrscheinlich ist eher das die nâchste X-Box oder PS5 legendär wird, weil hier endlich einmal wieder dass P/L-Verhältnis stimmt.
 
ArrakisSand schrieb:
Die 2/3 bezogen sich auf eine OC, RTX2080ti mit 2150 MHz die im folgenden Test 340W verbrauchte.
Oh, stimmt das OC hab ich überlesen, ja mit 225W bei 2GHz könnte das schon hinkommen.

Geht man davon aus, dass man die Auslastung der CUs mit RDNA2 weiter optimieren konnte und sich somit die 50% mehr CUs auch in irgendwas um die 40% mehr Performance umwandeln, dann noch 10% IPC und 5-10% mehr Takt drauf, wäre man bei ca +65% ggü der 5700XT bzw ca +10% ggü der 2080Ti.

Das Paket dann bitte für 600€ und alle wären zufrieden^^
 
Colindo schrieb:
@Locuza Erstmal danke für die vielen Infos. Das klingt sehr interessant und lässt auf weitreichende Änderungen in RDNA2 schließen, wie wir ja alle hoffen.
Sicher einordnen kann ich nicht alle Details, aber es scheinen ja an den meisten Fronten Neuerungen zu kommen. Alleine die neuen Decoder-Einheiten, die auch bei APUs besonders interessant sein werden.

Das erklärt wohl, warum man Navi12 nie sah: Es war eine mögliche Konfiguration mit HBM2, die bisher nicht mal im Profibereich auftrat.
1.) Die Patchserie ist leider ziemlich oberflächlich in Bezug auf Details.
Das meiste ist abstrahiert und wird von einer nicht öffentlichen Firmware-Tabelle gelesen.
2.) Vor zwei Wochen gab es noch einen Patch für GFX-Powergating in Bezug auf Navi12, dass Projekt ist also nicht tot, sondern steht noch vor der Veröffentlichung.

ZeroStrat schrieb:
@Locuza Eigentlich scheint alles soweit vorbereitet zu sein, dass BigNavi durchaus schon Mitte August bis Anfang September gelauncht werden könnte?! Mal schauen, was von der Fertigungsseite noch so durchsickert.
Also rein Bezogen auf Linux wäre scheinbar ein Oktober launch passend.
Für das Merge-Window für 5.8 ist es zu spät.
5.8 erwartet man als stable release in August 2020, danach öffnet sich das neue merge window für 5.9 und der stable release davon wird wohl eher so im Oktober sein.
Aber AMD kann natürlich früher die GPU releasen, dan hingt der Linux-Support eben ein bisschen hinterher.
Wäre jetzt soweit ich weiß auch nichts Neues.

ArrakisSand schrieb:
Stimmt hab es mittlerweile auch mitbekommen es handelte sich anscheinend wirklich nur um den Emulationsmodus.
Wie sieht denn der entsprechende Eintrag bei NAVI 12 bei dem ja spekuliert wird das es sich um NAVI10 + HBM2 handelt aus?
Bzw. gibt es noch weitere Stellen im Code der Rückschlüsse auf GDDR6 zulässt?
Bei Navi12 gab es Einträge die von 16 SDPs (Synchronous Data Port interfaces) sprachen, genauso viel wie bei Navi10.
Navi14 hat 8, Vega10 16 und Vega20 32.
Das korrespondiert mit der Anzahl an Channels die verbunden werden.
Alleine dastehend kann man nicht direkt sagen, ob es 2048-Bit HBM2 (16x128-Bit = 2048) oder 256-Bit GDDR6 (16x 16-Bit) =256) sind.
Aber aus der Firmware-Datei gab es die Angabe zur Channel-Breite:
For Navi12 dram_channel_width_bytes is 16, i.e., 128 bits per channel, while for Navi10 it's 2, i.e., 16 bits per channel. num_chans is 16 for both, resulting in a total dram width of 2048 bits for Navi12 (and 256 bits for Navi10). This is another hint towards HBM.
https://www.reddit.com/r/Amd/commen...urus_renoir_gpu_firmware_info_shader/fbxv1sp/
Also 2048-Bit HBM2.

Navi12 (GFX1011) bietet wie Navi14 (GFX1012) und auch Vega20 (GFX906), ein paar neue Instruktionen für DeepLearning an, die Navi10 (GFX1010) fehlen.
Z.B. vierfacher INT4-Durchsatz, die Xbox Series X, unterstützt ebenfalls die Instruktionen.
https://llvm.org/docs/AMDGPU/AMDGPUAsmGFX1011.html

Bei Sienna Cichlid gibt es bei der vram_info nur GDDR6-Einträge und auch sonst gibt es nur GDDR6-Referenzen.
https://cgit.freedesktop.org/~agd5f...d&id=bb7d41201dac9c1c386ce721697d13772c57d1c2
https://cgit.freedesktop.org/~agd5f...d&id=d6e303a0051b808a29c83eb61ee480c2b4eea59a

SDP-Einträge habe ich nicht Erinnerungen bzw. die Übersicht zu behalten ist nicht einfach.

matty2580 schrieb:
Ich stelle Krautmaster bestimmt nicht über die Redaktion von PCGH, CB, 3dcenter, oder anderen Seiten, die alle größere Änderungen bei Vega beschrieben hatten.......
Du musst dir die autoritäre Aufwertung, von Personen in einer gewissen Position, noch in diesem Leben abgewöhnen :p
Es ist völlig egal was Krautmaster, PCGH, 3DCenter/Leonidas, CB, Du oder Ich schreiben, wenn es solide bis eindeutige Belege gibt das etwas anders ist bzw. nicht der Darstellung folgt.
Es werden häufiger Dinge zitiert, die schwach ausgelegt sind und wenn gute Argumente dagegen geliefert werden, akzeptierst du sie meiner Erfahrung nach selten und hältst dann den Status der Person/Seite entgegen, als ob Sie eine Art Halbgott darstellt, der egal wie sie Sachlage aussieht, es schon besser wissen muss.

Eine Vega NCU hat z.B. keine 128 ALUs wie anfangs spekuliert, sondern wie seit GCN1 64.
LDS, L1$, 4 Takte-Ausführungslatenz, ISA enconding von GCN3 etc. ist alles gleich.
Auch die größeren Instruction Buffer gab es schon mit GCN4, da hat GCN5 nicht weiter zugelegt.
Es gibt ein paar HW-Stages in der 3D-Pipeline die zusammengelegt worden sind und auch mehrere andere Änderungen, die schon weitreichend gewesen sind.
Aber in Relationen gesprochen, war der Unterschied bei den CUs wirklich gering gegenüber den vorherigen Generationen, dass sieht in Bezug auf RDNA1 eben massiv anders aus.

ZeroStrat schrieb:
Ja stimmt, ich spiele AC:Od auch lieber mit unter 60 FPS auf einer Radeon VII, weil das auf einer Nvidia Karte alles so getrickst und gemurkst ist... :freak:

Low FPS ftw, aber dafür standardkonform!
Wo steht eigentlich in der DX11-Spec das Helper-Threads von Seiten des Treibers verboten sind?
 
  • Gefällt mir
Reaktionen: Colindo
Es mir doch völlig Wurscht ob AMD das als RDNA oder GCN auf Gaming optimiert beschreibt.
Mich interessiert einzig die Leistung die am Ende für mich dabei heraus kommt.

Und ich kenne die Unterschiede von RDNA zu Vega, auch von Terrascale zu GCN.
Allein hier bei CB gibt es doch gute Tests dazu die alles ausführlich beschreiben.
 
Taxxor schrieb:
... werden sehen, ich gehe nicht von einer 3070 für über 600€ aus.
Und selbst mit 600€ läge sie schon 70€ über der UVP der 2070 Super.

Oh, aber ich schaetze leider doch, der Trend sagt ganz klar ueber 600 Euro, leider ;). Pascal GTX 1070 ueber 400, Turing RTX 2070("Super") ueber 500, und damit sind eigentlich die 600(+) fuer die Ampere RTX 3070 gesetzt oder es wird evt. wieder einen lohnenderen "Super" Refresh geben.

Dass die Preise stagnieren oder gar zurueck gehen, was ja eine zeitlang medienwirksam weiss gemacht werden sollte, wird man mit dem Argument der Pandemie ganz einfach kassieren koennen sowie steigenden Speicherpreisen (da hiess es doch auch Anfang des Jahres, dass die GDDR6-Speicherpreise auch steigen sollen und nVidia die Karten dadurch leider teurer gestalten muss, sonst knabbern Huang & Co. bald am Hungertuch und koennen keine neuen Boersenrekorde aufstellen :rolleyes: ).

Mit etwas Glueck bekommst Du vielleicht noch die Founders Edition oder das spaerlichst ausgestattete KFA2 Custom-Modell noch fuer knapp unter 600 Euro, aber ansonsten gehe ich leider fest von 600(+) Euro fuer halbwegs solide Modelle aus und bei den Topmodellen sogar mit ueber 700 Euro.

Die PC Hardwarepreisspirale rotiert aktuell gerade bei Grafikkarten abartig heftig aufwaerts und solange die Kundschaft nicht lernt und die Entwickler schmoren laesst, sondern im 1- bis 2-Jahresrhythmus den Rubel rollen laesst und immer das neueste haben muss bzw. fordert, solange wird sich das vermutlich auch nicht aendern, befuerchte ich, selbst wenn Intel den Markt auch noch betreten sollte.

Die billigsten RTX 2070 "Super" liegen jetzt im angeblich begonnenen Abverkauf noch immer bei abartigen 514 Euro ca. drei Monate vor der kolportierten Einfuehrung des Nachfolgers … naja, warten wir es ab, aber einer billige Einsteiger RTX 3070 wird vermutlich das Maximum sein (mehr Leistung lohnt sich m.E. i.d.R. sowieso nicht), was ich mir leisten wuerde naechstes Jahr.

Zu erhoehten Pandemie- und Early Adopterpreisen greife ich da oder bei dem AMD/RTG RDNA2 Pendant Marktstart dann bestimmt nicht zu, aber die Haendler duerfte es freuen.
 
  • Gefällt mir
Reaktionen: Colindo und matty2580
Locuza schrieb:
Wo steht eigentlich in der DX11-Spec das Helper-Threads von Seiten des Treibers verboten sind?

Steht nirgends, aber wie synchronisiert man die Command Buffer API-konform?
 
Chismon schrieb:
Pascal GTX 1070 ueber 400, Turing RTX 2070("Super") ueber 500, und damit sind eigentlich die 600(+) fuer die Ampere RTX 3070 gesetzt oder es wird evt. wieder einen lohnenderen "Super" Refresh geben.
"über 400" und "über 500" ist sehr ungenau verglichen^^

Die 1070 war bei 499, die 2070 bei 519, das sind 20€ Unterschied.
Die 2070 Super kam für 529, da erscheint etwas wie 549 für die 3070 doch möglich, vllt dann 600 für die FE
 
Taxxor schrieb:
Oh, stimmt das OC hab ich überlesen, ja mit 225W bei 2GHz könnte das schon hinkommen.

Geht man davon aus, dass man die Auslastung der CUs mit RDNA2 weiter optimieren konnte und sich somit die 50% mehr CUs auch in irgendwas um die 40% mehr Performance umwandeln, dann noch 10% IPC und 5-10% mehr Takt drauf, wäre man bei ca +65% ggü der 5700XT bzw ca +10% ggü der 2080Ti.

Das Paket dann bitte für 600€ und alle wären zufrieden^^
Um die 600€ wären ein angemessener Preis, bei dem wohl auch AMD noch ordentlich Profit machen würde.
Ich allerdings mal abseits vom Preis würde mich eher für die beschnittene Variante (56CU / ca. 180W?) analog zur 5700 interessieren. (Mir kommen normalerweise keine Karten >200W ins Haus)
Die wäre dann wohl ca. 10% schneller als die 2080 super bzw. 10 langsamer als die 2080ti.
Bei ca. 500€ wäre ich da dabei.
 
Taxxor schrieb:
"über 400" und "über 500" ist sehr ungenau verglichen^^
... 1070 war bei 499, 2070 bei 519, das sind 20€ Unterschied.
Die 2070 Super kam für 529, da erscheint etwas wie 549 für die 3070 doch möglich

Du gehst ja vom guenstigsten Modell oder der GeForce Founders Edition aus, ich gehe von der Masse der Custom-Modelle des Grafikkartentyps aus, die von der ueberwiegenden Mehrheit gekauft werden, aus (auch wenn ich das aktuell guenstigste Modell vorhin angefuehrt habe aus dem Geizhals Preisvergleich, welches nicht repraesentativ ist sondern eine deutlich hoeherer Durchschnittspreis waere das) und meistens sind da nicht die guenstigsten sondern preiswerte und solide Modelle am meisten gefragt ;).
 
@Chismon Lagen den zwischen der 1070 und der 2070 nach gleicher Zeit nach Release bei den Custom Modellen im Schnitt die 100€ dazwischen, die du mit "über 400" und "über 500" impliziert hast?^^

Die 2070 gibts jetzt so für um die 420-450€, da müsste die 1070 ja nach 2 Jahren bei 320-350€ gelegen haben.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben