News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an

  • Gefällt mir
Reaktionen: Ned Flanders, alne24, SVΞN und eine weitere Person
Visualist schrieb:
Hier wird von 8K gesprochen und Spiele wie Cyberpunk laufen ohne DLSS noch keine 60FPS in 4K konstant.
Oder Metro Exodus Max Out in 4K keine Chance aktuell für 60FPS konstant !
CP 2077 läuft mit leicht angepassten Settings auch in 4K mit 60 FPS auf einer 3080 und Metro auch ohne RT. Außerdem kann man bei letzterem die Shading Rate bemühen. Ich würde die Titel auch als Ausnahme bezeichnen.
 
  • Gefällt mir
Reaktionen: PS828
Pizza! schrieb:
Bei AMD sind es immerhin auch schon 300 Watt.
Man hat nun gesehen, die Leute kaufen es trotzdem und kühlen lässt sich das Ganze auch noch.
Was heißt hier "schon"?
Um die 300W hat AMD schon eine ganze Weile für ihre Big Chips, das ist für deren Kunden also nichts neues^^

HD 7970 GHz: 300W
R9 290X: 290W
R9 390X: 275W
RX Vega 64: 295W
RX 6800XT/6900XT: 300W


Und bei der 7970 GHz musste man diese 300W noch über lediglich 352mm² abführen, da ist eine 6900XT mit ihren 520mm² für 300W schon angenehmer für den Kühler.
Ergänzung ()

ZeroStrat schrieb:
Ich würde die Titel auch als Ausnahme bezeichnen.
Bei Cyberpunk scheint sich zumindest etwas an der Performance getan zu haben im Vergleich zum RT Test zum Release der 1.2

Screenshot 2021-07-28 171852.png


Ich hab die eigenen Benches zum Release damals leider nicht mehr, aber die waren ziemlich auf den Punkt so wie die Zahlen von CB. Somit habe ich 30% mehr FPS als damals.


Wenn das Game irgendwann mal FSR bekommen sollte, käme man in dieser Auflösung mit dem RT Medium Preset immerhin schonmal auf ca 45-50FPS mit Ultra Quality bzw 55-60FPS mit Quality.
Das kann man ja auch recht leicht vorab testen, zusammen mit dem Performance Hit durch FSR würde man mit Ultra Quality ca die Performance von CAS bei 80% haben und für Quality ca 68%.
Screenshot 2021-07-28 174015.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828 und Colindo
ZeroStrat schrieb:
CP 2077 läuft mit leicht angepassten Settings auch in 4K mit 60 FPS auf einer 3080 und Metro auch ohne RT. Außerdem kann man bei letzterem die Shading Rate bemühen. Ich würde die Titel auch als Ausnahme bezeichnen.
Hab vor der 6900XT die EVGA 3080FTW 3Ultra gehabt und hab es auf ausgeglichen Maxout gespielt und auf Qualität und auch mal alles ausgemacht z.b RT ohne an den Schaltern rum zu Spielen ist man ein gutes stück weg von 60FPS zumal gibt es die Szene und die Szene.
Der Leistungshunger ist brachial in 8K und die next gen Titel werden kaum genügsamer!
8 K wird meist nur mit DLSS oder SFR oder anderen upscaling Verfahren möglich !

Klar gibt es auch Games die kaum Performance ziehen oder man kann die Qualität bis zum erbrechen runter Schrauben.
 
Visualist schrieb:
Hab vor der 6900XT die EVGA 3080FTW 3Ultra gehabt und hab es auf ausgeglichen Maxout gespielt und auf Qualität und auch mal alles ausgemacht z.b RT ohne an den Schaltern rum zu Spielen ist man ein gutes stück weg von 60FPS zumal gibt es die Szene und die Szene.
Welches Spiel meinst du jetzt?
 
Cyberpunk und Metro Max Out RDR2 hat auch seine Momente die Maxout die Karten killen in 4K
 
Zuletzt bearbeitet:
Visualist schrieb:
Cyberpunk und Metro Max Out RDR2 hat auch seine Momente die Maxout die Karten killen in 4K
Mein "These" war natürlich schwammig, weil auch sehr allgemein. Dass es Ausnahmen davon gibt, sollte klar sein. Ich kenne die beiden Titel auch und deswegen hatte ich erwähnt, dass man die Settings teilweise anpassen muss. Unter dieser Voraussetzung sind das dann 60 FPS im Großen Ganzen. Worst-Case-Szenen gibt's ja immer, wo es dann nicht ganz so rosig aussieht. Aber wer braucht die dreifache Leistung (Raytracing ganz bewusst ausgeklammert) in diesen Spielen, ausgehend vom aktuellen Highend?
 
Zuletzt bearbeitet von einem Moderator:
Nero2019 schrieb:
aus dem anderen Thread hier.
Ich hoffe das mehr Länder sowas einführen. Ich bin für maximal 300W für den ganzen PC. Das gleiche natürlich auch für Spielkonsolen (PS5, Xbox usw).

Das die GPU alleine 300W, nur zum zocken, verbrauchen ist nicht lustig.

Das ist gleich wieder so extrem....
Der Stromverbrauch interessiert mich auch, aber man muss auch akzeptieren, dass der PC eben oft mit weniger als möglich läuft, nur weil ein PC mit 3090 + i9 11900K theoretisch 750+ Watt ziehen kann, tun sie das meistens trotzdem nicht und schon gar nicht konstant (Desktopbetrieb, Youtube, Spielemenüs <-außer New World, lol). Dann gibt es noch den Nutzer, der mit UV und fps-Limits arbeitet, eine Solaranlage auf dem Dach hat etc., da ist ein Verbot absolut übertrieben.

Kann mir auch ehrlich gesagt nicht vorstellen, dass die Leute mit einer 3090 ständig maximale Last fahren, im Sommer erzeugt selbst meine undervoltete 3080 zu viel Abwärme für meinen Geschmack.
 
  • Gefällt mir
Reaktionen: Cyberbernd
ghecko schrieb:
Irgendwie stecken wir schon seit geraumer Zeit bei GDDR6 fest. Erreicht das Prinzip langsam seine Grenze?
Ich hab ja mal wieder auf eine HBM-Karte mit ordentlich Compute-Leistung gehofft, aber AMD scheint dieses Feld auf dem Desktop komplett an Nvidia abzutreten. Sehr schade.
Nicht wirklich, GDDR6 ist noch sehr jung wenn man das mal mit GDDR5 vergleicht.
GDDR5 erschien zuerst in 2008 auf der HD4870 und wurde bis 2020 mit der Turing GTX1660 und 1650 verbaut.

ruthi91 schrieb:
Sie scheinen sich bei ihrer infinity cache Sache ja sehr sicher zu sein, ich hätte sonst mindestens mal Gddr6X erwartet oder auch 384bit Interface.
Wieso sollten sie das tun? 6X wird niemals der Nachfolger von GDDR6, wäre dafür viel zu teuer. Außerdem ist das ein proprietärer Standard wo kaum Herstellerauswahl gegeben ist.

Genausowenig wie GDDR5X jemals abseits der highendmodelle 1080 und 1080ti und Titan verbaut wurde. Das ist einfach eine zu teure Technologie.
PAM4 signaling ist einfach zu teuer zu implementieren und stellt extreme Herausforderungen an die Leitungslänge und abschirmung der PCBs, wie man ja bei der 3080 sieht.

Dass nvidias G6x Implementierung aber auch beim onchip SI ein Griff ins Klo war sieht man ja bei der 3070ti: 70Watt Mehrverbrauch allein durch 19gbps G6X statt 14gbps G6, trotz im Mittel niedrigerer Chiptaktraten. Dabei soll der speicher allein ja sogar sparsamer sein als normaler G6 pro bit.

Nvidias Speichercontroller sind sowieso nicht so das gelbe vom Ei. AMD erreicht ohne Probleme überall 16gt/s schon mit normalem G6. Teurer scheint der 16.0gt/s Speicher ohnehin nicht zu sein, da muss also beim NV speichercontroller etwas im Argen liegen.
 
  • Gefällt mir
Reaktionen: PS828
Blekota schrieb:
Hätte ich bloß damals AMD-Aktien gekauft 🤪
Manchmal ist man doch froh immerhin 9800 Stück behalten zu haben….
Aber die gehebelten bei 15$ verkauft zu haben tut dann doch gleich wieder so richtig weh:heul:
 
Endlich kommt es. Ein Jahr hält meine GTX 1080 sicher noch durch. Warte schon lange auf ein MCM-Design bei GPUs. Sehe hier enormes Potenzial.

Was Innovationen anbelangt ist AMD die letzten paar Jahre echt richtig gut drauf, bin stolz auf die Jungs. :)
  • nach vielen Jahren monolithischer CPU-Designs erstmals wieder ein Chiplet-Design und enorm viel Bewegung in den CPU-Markt gebracht
  • stapelbaren L3-Cache für CPUs entwickelt, der bald auf den Markt kommt freu
  • mit Infinity Cache endlich eine gute Caching-Technologie für GraKas gebracht, die endlich das alte Problem mit dem Speicherinterface gelöst hat
Der nächste große Sprung sind Chiplet-Design für GPUs und nun kommen sie bald. Yeah Baby. :cool_alt:
 
OK, also nie wieder HBM im consumer-Bereich. War ja auch abzusehen wo das doch arg teuer ist und der infinity-cache einen wunderbaren Job macht. Es bleibt spannend.
 
Was mir ein bisschen bitter aufstößt sind die Möglichkeiten nicht gleich die Top Dogs zu bringen durch die Chiplets .
Ist jetzt der 8*Shader oder der 12* shader der grösste Chip ?
Oder sind es beim 12 *** schon 2 Chiplets ?
Wen ja dann wären ja eigentlich 16*** möglich mit dem 8**** aber mit dem 12228 dann 24456Shader mit 2 Chiplets !
 
Zuletzt bearbeitet:
Visualist schrieb:
Wen ja dann wären ja eigentlich 16*** möglich mit dem 8**** aber mit dem 12228 dann 24456Shader mit 2 Chiplets !

Angeblich sollen mit RDNA 3 maximal 8 SE möglich sein und mit RDNA 4 32 SE. Stammt aus dem Linuxtreiber.

Die Gerüchteküche ist sich einig, dass AMD RDNA 3 mit 1 GCD auf den Markt bringt. Die MCD werden inzwischen als Memory Controler Die interpretiert. Das heißt die GDDR6 Memory PHY sollen ausgelagert werden. Die Interpretation Multi Cache Die wurde fallen gelassen.

Da die Gerüchteküche daran glaubt, dass Navi 31 aus 7 Chiplets besteht, kommen sie auf 6 MCD. Je MCD rechnen sie mit 64 bit und so kommen sie auf in Summe auf ein Speicherinterface mit 384 bit, so wie öfters genannt. Außerdem gehen sie davon aus, dass der Infinity-Cache als 3D-Cache auf den MCD gestapelt wird. Da sie davon ausgehen, dass es wiederum 64 MByte je Chip sind, kommen sie auf 384 MByte Infinity Cache für Navi 31. Den ganzen Herbst 2021 hat Greymon darauf bestanden dass Navi 31 ein Speicherinterface mit 256 bit und einen Infinity Cache mit 256 MByte hat.

Die Interpretation ist an und für sich schlüssig, hat aber einen großen Pferdefuß. Dadurch dass der 3D-Cache auf den MCD sitzt, ist ein sehr große Bandbreite zwischen MCD und GCD erforderlich. Als Lösung zirkulieren Illustrationen dass Navi 31 als EBF wie bei der MI250X umgesetzt wird. EBF steht für Elevatet Fanout Bridge, und die Bridge ist ein kleiner Silizium Chip der MCD und GCD verbindet. Als dann Greymon behauptet hat die Die Size für Navi 31 wären ca 350 mm2 tauchten nette Renderbilder auf, die zeigen sollen wie das ganze aussieht.

Auf die Idee, dass das ein bisschen zu aufwändig für eine Consumer Grafikkarte sein könnte, kommt keiner.

Es stimmt schon, dass die Memory PHY beim Übergang von 7 and 5 nm nicht skalieren. Aber sie nehmen aktuell nur eine kleine Fläche ein. In der ganzen Diskussion werden die PHY für PCIe und Displays, der PCIe Controller und der VCN ignoriert. Auch diese belegen ordentlich Fläche. Und es fällt beim Die-Shot von Navi 31 auf, dass die 256 bit Memory PHY erheblich weniger Fläche benötigen als die 128 MByte Infinity Cache.

Alleine daran wie sich Zahlen und Interpretationen ändern ist klar, dass hier sehr viel interpretiert wird. Die harten Fakten sind dünn, und bei genauer Betrachtung kommen Zweifel an der Authentizität auf. Alles beruht auf Rechenspielen mit diesen Annahmen. Als Greymon55 die Anzahl der Shader für Navi 31 nach unter korrigiert hat, wurde geschwind der Aufbau der Shader Engine geändert.
  • Vorher: 1 Shader Engine besteht aus 2 Shader Arrays mit jeweils 5 WGP die jeweils 256 Shaders haben, ergibt 2560 Shaders je SE
  • Daraus wurde plötzlich 1 Shader Engine besteht aus 2 Shader Arrays mit jeweils 4 WGP die jeweils 256 Shaders haben, ergibt 2048 Shader je SE
  • Im Klartext, man kennt die Namen der Blöcke aber nicht deren exakten Aufbau, Alles hängt davon ab ob die die Gesamtzahl von 12288 Shader und 6 Shader Engines für Navi 31 stimmen.
Das ganze erinnert an mittelalterliche Zahlenmystik.

Fazit: Die Gerüchte könnten stimmen oder nicht.

Nichts genaues weiß man nicht. Und dabei würde ich es belassen.
 
  • Gefällt mir
Reaktionen: ThePlayer, PS828 und Visualist
Zurück
Oben