News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Baal Netbeck schrieb:
Hoffen darf man, aber ich denke da an so großspurige Aussagen wie "poor Volta", die am Ende einfach nur peinlich für AMD waren.

Aus meiner Sicht muss für die Radeon Group mit den neuen Karten einfach alles super laufen um auf Nvidia aufzuschließen:
Da muss die IPC wie versprochen stark steigen...sonst wird das auch mit 2GHz und 80CUs nix.
Da muss die Fertigung nochmal besser geworden sein, damit sowas wie 2GHz+ nicht in einer 400W Karte enden.
Da müssen die Taktraten auch gehalten werden und nicht nur in der Theorie anliegen.
Da muss es ordentlich VRam und VRam Bandbreite geben.
Da muss der Treiber endlich mal zum Start bereit sein.
Da muss der Kühler zur Abwechslung mal keine laute Lachnummer werden...oder wenn er das ist, müssten die Boardpartner schnell eigene Modelle bereit haben.
Da muss die Verfügbarkeit zumindest halbwegs vorhanden sein.
RT muss zum Start auch funktionieren(ja das war bei Nvidia nicht so, aber AMD ist ja auch der Nachzügler).
Und dann gibt es noch 1000 Möglichkeiten, wie Dinge schief gehen, an die noch niemand von uns gedacht hat.

Und für mich persöhnlich müsste es endlich bessere Treiber für OpenGL/DX6.1-11 geben....ich spiele einfach zu viele neue und alte Spiele durcheinander und will mich da einfach nicht mehr so oft ärgern.

Navi hat sich ja nicht schlecht verkauft und war auch von der Hardware ein gutes Produkt....aber AMD müsste hier die Leistung der 5700XT verdoppeln....ohne die Leistungsaufnahme zu verdoppeln...für mich einfach unrealistisch....denn wie wahrscheinlich ist es, dass einfach alles glatt und nach Plan von AMD läuft?
Zotac2012 schrieb:
Aber ist das mit dem Infinity Cache nicht so ähnlich wie bei Nvidia...
Es gibt manche die meinen man muss dafür programmieren um das volle Potential zu erreichen. Aber schlussendlich wird man das schon im Treiber gut geregelt werden.. Es gibt auch das Gerücht das dieser Cache erst Sinn ergibt durch Raytracing (andere sagen das ist ein wichtiger Schritt für Multichiplet Designs bei GPUs)... Denn wenn das gut sein sollte - wieso hat das NV nicht? Also Caches sind ja hinlänglich bekannt und spielten bei GPUs bisher keine große Rolle..
Kann auch sein das das nur so etwas ist ähnlich dem was in der xBox läuft nur in Größer...
Deswegen ist das Feature ja auch so spannend... Es ist unklar wozu/weshalb und was es kann... Viel Raum für Spekulatius und Fantasie...
 
  • Gefällt mir
Reaktionen: jemandanders, Baal Netbeck, Zotac2012 und eine weitere Person
ArrakisSand schrieb:
136mm2 + ca. 50mm2 für ein 256 Bit Speicher-Interface? Keine Ahnung vielleicht hat einer hie im Forum eine Ahnung wie groß die benötigte Fläche in etwa ausfallen könnte?
Schau Mal:
@aur0n hat hier was interessantes aus einem Reddit-Thread gepostet, in dem spekulativ gerechnet wird.
aur0n schrieb:
Auch ganz interessant die Überlegung zum Cache bei den neuen Karten von reddit user u/floundersedition
https://www.reddit.com/r/AMD_Stock/...medium=android_app&utm_source=share&context=3

I think, IF-cache is pretty much confirmed now, with 1MB=\~1mm² additional size (same ratio as Zen 2's L3-cache). did some math below.
...
IF-cache size could be the "unkown 1" entry in the first table, it's tied to number of memory cannel/PHY's. this would indicate, that both Van Gogh and Rembrandt have 32MB IF-cache (for the GPU only or mixed with Zen 3?). "unkown 0" is the number of CU's per shader array (not shader engine), "unkown 2" is the number of CU's.

# Calc

Navi 21: one of Navi 10's shader engines is \~60mm² (with 20CU's and 2MB L2, but only 50% ROPs like \_rogame and TUM-APISAK reported), so adding 80CUs is \~240mm². Command processor, Geometry engine, HWS and twice as many Async compute engines add \~10mm². 2x HBM on Vega 20 is \~45mm². big IF-Link is \~15mm² on Vega 20. Navi I/O and video is \~45mm², adding a second video encoder may add 10mm². for a 80 CU die without cache, this would result in 365mm².

so the 140mm² missing to the rumoured 505mm² die could confirm RedGamingTechs 128MB IF-cache and a little overhead for inter-die communication.

Navi 22 probably has (340mm², 40CU, 192-bit, 96MB IF-cache) vs Navi 10 (251mm², 40CU's, 256-bit). \~95mm² on top for cache, but \~15mm² less for smaller bus and memory controller fits perfectly fine.

Navi 23 has two shader engines, Navi 14 only one. so I'm unsure about IF-cache size of Navi 23, it may either be 32MB or 64MB, that depends on the overhead of another shader engine. but RDNA 2 only uses half ROPs per shader engine, so overhead may not be as big and 64MB fit.

Navi 23 has (240mm², 32CU's, 128-bit, 64MB-IF cache) vs Navi 14 (158mm², 24CU's, 128-bit). one WGP (2x CU) is \~4.1mm² on both Navi 1x and XSX. so adding 8CU's to Navi 14 would be additional \~16.5mm² for a 32 CU-die in a single shader engine (\~175-180mm²). that leaves 60-65mm² unexplained silicon, so maybe 64MB cache.
 
  • Gefällt mir
Reaktionen: aur0n
Nochmal anders rangegangen:

Wenn die 40CU Karte 170W für 2500MHz benötigt, könnte die 80CU Karte mit 340W ja auch mit 2500MHz takten. TBP dann um die 400W. Ist für AMD kein Neuland und NVidia macht dies gerade mit der RTX 3090.

RDNA2 wird bei der IPC NICHT schlechter als RDNA1 sein, und allein mit den 5120 Compute Units @2500MHz sind sie bei 2.25x Rohleistung der 5700XT. Ja, ich weiß, Skalierung blablabla....

Aber der Extra-Cache dürfte die Skalierung verbessern, und die höhere IPC durch RDNA2 sollte ihr Übriges tun.

Ich lehne mich mal aus dem Fenster und sage mit einer 400W Karte wird die RTX 3090 fallen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: or2k und Foxel
Könnte auch einfach sein dass die Daten im NewEgg Blog von der TechPowerUp Datenbank stammen. Vor paar Tagen stand dort wohl auch noch 6GB, während mittlerweile 12GB drin stehen.
Auch standen da noch vor paar Tagen genau 1500mhz Base Clock, während jetzt dort 1489mhz stehen

1601218884952.png

aktuell 6700 XT
1601218908112.png


EDIT:
alt
1601220420658.png

neu
1601220433712.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4, dohderbert, Balikon und 14 andere
Zotac2012 schrieb:
Aber ist das mit dem Infinity Cache nicht so ähnlich wie bei Nvidia das mit dem FP32 und der Verdopplung der Shaderanzahl, sprich das die Grafikkarte nur dort ihr volles Potenzial ausschöpft, wo auch das Feature entsprechend angesprochen wird? Ich meine zumindest mal so etwas gelesen zu haben, vor allem gibt es auch Szenarien wie bei Nvidia mit dem FP32, wo die Grafikkarte nicht so performt, wenn das Feature nicht entsprechend eingebunden wird?
Fuer RT muss unterschieden werden da alles ueber diesen Cache laeuft und zugeteilt wird. Das wird im Game beruecksicht werden muessen ,da der Treiber nur die angeforderten Recourcen haendelt.
 
  • Gefällt mir
Reaktionen: NMA
Fast 4'000 Shadereinheiten und dann ein 192-Bit-Speicherinterface? Das klingt irgendwie nicht realistisch...
 
  • Gefällt mir
Reaktionen: Smartbomb und NMA
Im Raten sind sie alle gut. Im Wissen nicht.

Warten wir's ab.
 
  • Gefällt mir
Reaktionen: Balikon, Smartbomb, Mulciber und 4 andere
Jenergy schrieb:
Fast 4'000 Shadereinheiten und dann ein 192-Bit-Speicherinterface? Das klingt irgendwie nicht realistisch...
Hmm, geht ja viel fürs RT drauf. Keine Ahnung ob das reicht.
 
Kacha schrieb:
Aber auch erst seit Ampere.

Nein, das konnte schon Turing.

Was Ampere nun zusäzlich kann ist folgendes.
The new RT Core includes a number of enhancements, combined with improvements to caching subsystems, that effectively deliver up to 2x performance improvement over the RT Core in Turing GPUs. In addition, the GA10x SM allows RT Core and graphics, or RT Core and compute workloads to run concurrently, significantly accelerating many ray tracing operations. These new features will be described in more detail later in this document.

https://www.nvidia.com/content/dam/...pere-GA102-GPU-Architecture-Whitepaper-V1.pdf
 
  • Gefällt mir
Reaktionen: Shoryuken94
domian schrieb:
Ok jetzt wissen wir alle das du studiert bist, Glückwunsch. Für diese Erkenntnis ist es aber nicht erforderlich.
Musst dich nicht angegriffen fühlen. Das war ein Hinweis, was ich gelernt habe, nicht mehr und nicht weniger. Etwas mehr Selbstwertgefühl entwickeln und mehr Selbstsicherheit an den Tag legen, dann muss man sich nicht ärgern.

Taxxor schrieb:
Also laut Nvidia können deren Shader sehr wohl gleichzeitig Rasterisierung betreiben, während die RT Kerne rechnen. ...
Kommt darauf an, was man wie meint. @modena.ch spricht in dem Fall nicht von dem Shader in Sinn der Hardware - wie du und NVIDIA - sondern vom Shader im Sinn des Programms und in dem Fall ist seine Aussage genauso richtig wie die von dir.

Der Shader - das Programm - selbst ist an seinen Ablauf gebunden, wenn hier eine RT-Anfrage läuft, die für die weiteren Berechnungen notwendig ist, geht der Shader schlafen, unweigerlich, denn wenn die Daten nicht da sind, gibt es nichts zurechnen.

Der Shader - die Hardware - wiederum kann sehr wohl zur gleichen Zeit sowohl auf den CC rechnen, über den RT-Core eine BVH-Abfrage durchführen, eine Textur anfordern und eine Raster-Operation durchführen, zur gleichen Zeit.

Nur … das ist ein Stück weit nur ein »theoretischer« Vorteil. Denn man kann zwar mit Softwareanpassung hier durchaus einiges erreichen, aber man kann grundlegende Abhängigkeiten nicht elliminieren.

Bei AMD auf der Hardware-Ebene scheint es zudem so zu sein, dass jede CU 8 TMUs hat, die jeweils als ein Block mit 4 TMUs angesprochen wird, damit kann bei AMD auch ein TMU-Block sich um RT kümmern und der andere lädt die Texturen.

Apocalypse schrieb:
Hmm, geht ja viel fürs RT drauf. Keine Ahnung ob das reicht.
Nun, es kommt darauf an. Wenn der Cache groß genug ist, kann der Cache schon relativ viel abfedern. Zudem darf man nicht vergessen, dass AMD mit Vega HBCC eingeführt hatte und eine Weiterentwicklung des HBCC auch mit RDNA2 Einzug halten könnte.

Es gibt da einige Möglichkeite, aber mal Abwarten und Tee trinken.
 
  • Gefällt mir
Reaktionen: Smartbomb, ThePlayer, CableGuy82 und 5 andere
Taxxor schrieb:
Also das 256bit Interface bleibt ja von der 5700XT erhalten, der 7nm+ Prozess hat eine höhere Dichte, man könnte 80 CUs + SI also theoretisch in gut 400mm² unterbringen.
Wenn Big Navi die 505mm² bekommt, dann ist das eben der Cache (der auch dichter sein kann in 7nm+).
Du meinst damit N7+ (EUV) ist das den nun fix oder kommt doch wieder N7p zum Einsatz?

Und bei der um den Faktor 1.2 gestiegenen Logical Density im Vergleich zu N7 / N7p könnte
der infinity Cache bzw. SRAM bei weitem nicht in dem Masse von einer Flächenersparnis profitieren wie es z.B.
beim logical part z.B: den CU's der Fall wäre.
Aber klar mit einem herkömmlichen SI wären selbst 512 Bit bei ca. 400 (428mm2) machbar und bei 505mm2 würde es wohl auch für den Cache reichen.
Allerdings wäre das schon mit erhebliche Mehrkosten im Vergleich zu einem herkömmlichen 512 Bit SI verbunden.
Ob da am Ende nicht doch HBM2 die bessere Wahl wäre?
Da hätte man die Eierlegende Wollmilchsau mit einer Unbekannte dem Preis.
 
Es kommen ja immer wieder die Aussagen, dass Nvidia als Konter eine 3070ti, 3080ti oder super rausbringt. Aber wo sollen die herkommen? Welchen Chip soll eine 3080ti bekommen? Die 3080 hat doch schon den größten Chip und von den Einheiten leicht beschnitten. Paar mehr Einheiten und es ist eine 3090.
 
  • Gefällt mir
Reaktionen: dohderbert, Smartbomb, PS828 und 3 andere
256bit 512GB/s interface?
Da muss AMD zaubern damit das an eine 3080 kommt. :freak:
Die Framedrops werden grausam damit, da helfen die 6GB mehr auch nicht.
Mehr cache halte ich auch für nicht möglich da dieser bei 7nm nicht wirklich günstig ist, hätte man gleich ein breiteres SI drauf setzten können.

Kann ich mir nicht vorstellen das die daten stimmen.

@HAse_ONE Ausgenommen samsung bekommt mehr takt aus ihren chips, erstmal sind die aber mit beschäfftigt mehr chips aus waffern zu bekommen. :lol:
 
Zuletzt bearbeitet von einem Moderator:
Taxxor schrieb:
Eine SM besitzt ja wie eine CU auch mehrere Shader, die können wohl an unterschiedlichen dingen arbeiten, während bei AMD pro CU immer entweder nur Raster oder nur RT Aufgaben übergeben werden müssen.

Wissen wir doch stand jetzt nicht oder gibts dazu schon offizielle Infos?
 
Man darf gespannt sein, aktuell liest sich das alles ziemlich unglaubwürdig. Es gibt keine Not, schon bei der 6800XT auf weniger als 256Bit zu gehen. AMD wird diesen tollen Cache ja auch nicht entwickelt haben, um das SI weiter zu verkleinern, sondern um ohne Vergrößerung mit NVs 320-384Bit und GDDR6X mithalten zu können.

Die angegebenen Speicherbandbreiten lassen sich übrigens nur mit 16Gbps GDDR6 erzielen, den gibt es aber laut Herstellerhomepages nur in 1GB-Modulen, während 2GB-Module noch in Entwicklung sind (wie bei GDDR6X). Wenn die Infos nicht veraltet sind, bräuchte AMD für 12GB bzw 16GB ebensoviele Module, was auch wieder teuer wird.

Man muss aber sagen, dass die Speicherbandbreite abseits HBM noch nie AMDs Stärke war und zuletzt erst recht nicht (AMD hat bei GCN, Polaris und Navi bisher immer maximal den Speicher verwendet, der bei NV fast Standard war, oft sogar langsameren, besonders schnellen GDDR hat immer nur NV verwendet, mehr als 256Bit ohne HBM haben wir seit Hawaii 2013 nicht mehr gesehen).

HAse_ONE schrieb:
Es kommen ja immer wieder die Aussagen, dass Nvidia als Konter eine 3070ti, 3080ti oder super rausbringt. Aber wo sollen die herkommen? Welchen Chip soll eine 3080ti bekommen? Die 3080 hat doch schon den größten Chip und von den Einheiten leicht beschnitten. Paar mehr Einheiten und es ist eine 3090.

Der GA104 auf der 3070 soll nur 46 der 48 SM nutzen, der GA102 auf der 3080 nutzt auch nur 68 der 72SM in den 6 aktiven GPC, die 3090 nur 82 der 84 SM in 7 aktiven GPC. Gerüchteweise soll noch ein GA103 kommen, vermutlich mit den 6 GPC der 3080, um diese günstiger herstellen zu können. Ein bischen Luft ist da noch. Außerdem munkelt man für die 3070 von nur GDDR6 14Gbps und nur 8GB, man könnte also für eine 3070Ti auf 16Gbps oder GDDR6X umsteigen (für beides gibt es aber aktuell nur 1GB-Bausteine, s.o.) und auch bei einer 3080S/Ti könnte später 21Gbps-GDDR6X eingesetzt werden.

Du hast aber vollkommen recht, dass so der Abstand zur 3090 noch lächerlicher wird. Insbesondere die 3070 bietet noch viel Verbesserungspotential über den Speicher, aber auch die 3080, die 3090 dagegen sogut wie garnichts mehr. Spätere Taktsteigerung durch eine andere oder verbesserte Fertigung kann ich mir auch kaum vorstellen.

Ich bin sehr gespannt, was da wirklich kommt. 3070 nur 8GB und 3070Ti nur 16GB kann ich mir vorstellen, aber eine 3080 20GB ist sogut wie bestätigt, eine 3080S/Ti müsste sich noch anders absetzen und trotzdem wäre der Unterschied so lächerlich gering, wie zwischen 2080 und 2080S, dass man kaum beide Karten am Markt behalten wird.
 
Zuletzt bearbeitet:
Also die letzten Leaks zu RDNA2 sind schon fast zu gut. Ich bin froh wenn AMD 3080 Niveau erreichen kann, dann gibts endlich wieder gesunden Wettbewerb. Wenn Sie das noch mit weniger Verbrauch hinkriegen würden, dann hätten Sie echt nen Riesenschritt gemacht.

Interessant wird das ganze Speicherthema. AMD hat auch schon bei Zen2 mittels dem deutlich vergrösserten Cache viel Performance geholt, vllt wurde dieser Ansatz jetzt auf RDNA2 übertragen ...
 
  • Gefällt mir
Reaktionen: Toni_himbeere
Zurück
Oben