News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

Skidrow1988 schrieb:
Ich hoffe, es gibt eine vernünftige 150 - 200Watt Lösung. Ich möchte keine 300+ Klopper haben.
Ich frage mich, was diese Bemerkung immer soll. Als ob es jetzt keine 200 Watt GPUs gäbe und Nvidia/AMD das Segment nicht mehr bedienen würden.

Es drängt sich eher das Gefühl auf, dass man erwartet für das Power Budget ganz oben auf der Leistungsskala mitspielen zu können. Das wird aber sicher nicht mehr passieren. Wem sowas wichtig ist, der ist im PC Gaming mittlerweile falsch. Der umweltbewusste Gamer greift besser zur Konsole.

Zumal mir die Verbrauchsgrenze auch sehr willkürlich gezogen scheint. Warum nicht 100, 250 oder 350 Watt? 75 Watt würde ich ja noch verstehen, da man auf den extra Netzteilanschluss verzichten kann, die anderen Werte scheinen mir aber aus der Luft gegriffen. Als ich mit PC Gaming angefangen habe, hat der ganze PC keine 150 Watt gezogen, geschweige denn eine GPU und heute sieht man das als "vernünftig" an wenn die Karte alleine 200 Watt zieht...
Was ich damit sagen will: die Zeiten ändern sich und ein "vernünftig" gibt es in diesem Bereich einfach nicht. Es geht nun mal voran und mehr Leistung wird auch immer mit mehr Energieverbrauch einhergehen. War nie anders und wird nie anders sein.
 
  • Gefällt mir
Reaktionen: Thakor und ben12345
FeldiSan schrieb:
Ich denke über chackerbording könnte man das auch heute wieder realisieren die Frames müssten hat gleichzeitig kommen bei einer nahezu 50/50 Bildaufteilung liegt das Last Moment gleich und sollte damit auch keine Frametimes Probleme mit sich bringen... Aber was sage ich... Ich habe keine Ahnung😁
Eine 50/50 Bildaufteilung garantiert gar nichts - sorry. Wenn in einer Bildhälfte sagen wir 50 3d Objekte liegen - in der anderen nur 5 ist doch klar das da einer deutlich mehr arbeiten muss... Und beim Game ist es ja ein Stream an Frames - lass mal das Ungleichgewicht an 3d Objekten dann 20 Frames lang vorhanden sein...
Intelligent die Arbeit verteilen - ist denke ich noch ne Baustelle an der Gearbeitet werden muss...
 
Veitograf schrieb:
@Taxxor
igor hat doch mal einen test gemacht in welchem gezeigt wurde, dass das bei amd schwierig ist den kompletten verbrauch zu messen. aber mit hwinfo hat man zumindest einen vergleichswert.
Yep, diese 200W musst du im Falle einer 6900XT dann halt mit den 255W ASIC vergleichen, die sie Stock ziehen darf.
Ist nur immer blöd wenn man irgendwo schreibt, dass seine Karte X Watt braucht und dann liest das jemand, der von Nvidia gewohnt ist, dass HWInfo ihm den kompletten Kartenverbrauch ausgibt und wundert sich warum du so wenig verbrauchst^^
Real sind das ca 240W TBP.

Veitograf schrieb:
Wie testet eigentlich cb den verbrauch? einfach direkt an der steckdose als differenz oder nutzen die auch ein tool zum auslesen?
Hier wird die GPU direkt mit entsprechender Hardware gemessen
 
  • Gefällt mir
Reaktionen: Veitograf
floh667 schrieb:
Ich hoffe, dass dann auch endlich mal effizient Tests Einzug erhalten mittels FPS Cap. Einmal bei 60 FPS und einmal bei 144 und dabei den Verbrauch aller Karten messen. Bei exakt gleichen Grafik Einstellungen versteht sich.
https://www.techpowerup.com/review/msi-radeon-rx-6800-xt-gaming-x-trio/35.html
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/37.html

TPU hat das vor kurzer Zeit angefangen, ist schon sehr interessant, aber grundsätzlich ist der Aufwand deutlich zu groß, weil du eben jedes Spiel in jeder Auflösung mit unterschiedlichen fps caps messen müsstest und vermutlich wäre der Mehrwert zu Performance pro Watt zu vernachlässigen.

Im Endeffekt kann man es wie TPU machen und ein Spiel rauspicken, die Tendenz dürfte dann meist stimmen.
Ergänzung ()

Skidrow1988 schrieb:
Ich möchte das wir wieder ein den Bereich einer GTX 1070 kommen. Also die 70er Modelle von NVidia sollten auch in diesem Bereich landen. Daher ist die Grenze auch nicht willkürlich gezogen .

Sorry, aber warum?
Es ist halt so wie ich in einem Beitrag vorher geschrieben habe, die Menschen möchten einfach nicht von einer höheren Modellnummer runter, unglaublich.
Eine 3060 Ti bietet nahezu 100% mehr Leistung bei ~25% höherem Verbrauch (aber noch in deinem Rahmen) und erweitertem Featureset (RTX, DLSS)...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
hallo Leute,

interessante Gerüchte.
Ich habe ein kleines Verständnisproblem. Durch die Aufteilung des SI wird doch auch der angedockte Speicherpool fraktioniert, oder? Oder sind die MCD untereinander verbunden? Bei insgesamt 24 GB mit 6 MCD wären es effektiv "nur" jeweils 4GB und Daten sind häufig redundant in den 6 Speicherpools vorhanden?
 
Skidrow1988 schrieb:
Nein, ich möchte nicht von einer Leistungsklasse runter.

Die Leistung deiner GTX 1070 wird von einer RTX 3060 Ti bereits komplett deklassiert und das wird in der nächsten Generation noch extremer.
Du wechselst keine Leistungsklasse nach unten, sondern nur eine Modellnummer.

Seit wann leben wir in einer Welt, in der man beim Wechsel in eine niedrigere Leistungsklasse mehr Performance und Effizienz erhält?
 
Zuletzt bearbeitet:
Taxxor schrieb:
Von 80-100% Mehrleistung zur 6900XT wird ja auch ausgegangen.

Und bei der besseren Effizienz sind natürlich schon Architekturverbesserungen mit drin, das Bild zeigt RDNA3 vs RDNA2, nicht TSMC N7 vs TSMC N5
Ahja okay sorry. Mit allen Technischen Fortschritten inkludiert also.

Und ja... Das irgendwelche komischen Gerüchte umhergehen das wir 80% Mehrleistung erhalten werden war mir iwie im Hinterkopf. Aber ich halte nicht viel davon.
Ich kann mir beim besten Willen nicht vorstellen wieso sowohl AMD als auch Nivida plötzlich Vorhaben 100% Performance plus für die nächste Generation einzuplanen.
Lasse mich natürlich gerne eines besseren belehren, mein 240Hz Monitor hätte mehr FPS bitter nötig.
Aber ich bin immernoch überzeugt dass das irgendwelche Fanboy Gerüchte sind und wir Weit drunter liegen werden.
Naja nächsten Monat wissen wir mehr...
 
  • Gefällt mir
Reaktionen: ben12345
DevPandi schrieb:
Aktuell besteht eine CU aus 2 × Vec32, 4 × TMU, 1 × RT-Kern. Wenn es so kommt, wie jetzt, dann 4 × Vec32, 4 × TMU, 1 × RT-Kern. Navi31 kommt damit dann auf die 12288 Shader, 384 TMU, 96 RT-Kerne. ... Bei "normalen" Spielen wird es Navi31 mit AD102 aufnehmen können, bei RT hat AD102 einen Vorteil von 33 % mehr RT-Kernen.

Bei Takt werden sich beide wohl nicht so viel nehmen
Aber wenn das Verhältnis der Shader in gleichem Maße höher ist wie das der RT-Kerne, woher dann der Unterschied zwischen "normalen" Spielen und RT? Frage für einen Freund! 😅


EDIT: Noch was zum Artikel:
"GDC = Graphics Compute Die"
Dann eher GCD oder?
 
Zuletzt bearbeitet:
Skidrow1988 schrieb:
Ich möchte das wir wieder ein den Bereich einer GTX 1070 kommen.
Und die 1070 ist nicht willkürlich gewählt? Warum nicht die 1080 oder eine 670 oder eine 980 Ti?

Versteh mich nicht falsch, ich verstehe schon, dass man eine "Wohlfühlzone" hat, aber die hat sich auch erst ergeben. Wie gesagt, wärst du z.B. bei einer GeForce 2 (oder wie ich bei einer Voodoo 1) eingestiegen und hättest dich nicht drauf eingelassen, dass die Leistungsaufnahme steigt, dann würdest schon lange kein PC Game mehr zocken.

Es wird zwar eine <200 Watt GPU geben, aber ich bezweifle sehr stark das es sich dabei um eine 70er Karte handeln wird. Wenn die Gerüchte besagen, dass die 4070 sich schon mit einer 3090 messen kann, dann ist das schon rein physikalisch ausgeschlossen.
 
  • Gefällt mir
Reaktionen: GERmaximus
GrooveXT schrieb:
Die 70er sind in den letzten Jahren immer die Stufe unter der High-end Klasse gewesen. Mal von der Titan abgesehen. Die 200Watt sind auch einfach eine starke Grenze in Sachen Energieverbrauch des gesamten Rechners. Es sollte weiterhin möglich sein, das man mit 500 - 700 Watt, in dem segment bleibt. Momentan gibt es nur noch ein immer weiter nach oben. Das ist, meiner Meinung nach, einfach eine falsche Entwicklung. Völlig egal ob die Effizienz allgemein gesteigert wurde. Überall soll man weniger Verbrauchen und wir hauen immer mehr raus.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: v_ossi
blackiwid schrieb:
Ich kann diese Binsenweisheiten und Halbwahrheiten nimmer hören, alles ist irgendwie endlich, Sonnenenergie ist auch nicht unendlich weil die Sonne irgendwann aus geht.
Sich erst über Binsenweisheiten aufregen, nur um dann kosmische Zeitskalen zum Relativieren auszupacken.

Genau mein Humor. :freaky:

blackiwid schrieb:
Genauso "verbraucht" man nicht Ressourcen
blackiwid schrieb:
Der Stoff ist damit nicht verbraucht sondern nur in einem schwerer zu entnehmenden Zustand.
Du widersprichst dir selbst. Selbst wenn man Materie tatsächlich beliebig von "schlechte" in "nützliche" transformieren könnte (was zu beweisen wäre), ist diese Transformation ja trotzdem mit weiterem Ressourcen-Einsatz verbunden. Und darunter fallen auch unwiederbringlich verlierbare, wie menschliche Arbeit und Zeit als solche.

Außerdem ist es sowieso nur ein Strohmann-Argument, denn die These ist ja nicht "Materie wird aus der Existenz gelöscht", sondern "ein in begrenztem Maße vorhandener Stoff wird (ggf. unnütz) verwertet".

Bäume wachsen auch nach; Einen Waldbrand verursachen kann man damit aber auch nicht rechtfertigen.
 
  • Gefällt mir
Reaktionen: Czk666, heroesgaming und Veitograf
GrooveXT schrieb:
die Zeiten ändern sich und ein "vernünftig" gibt es in diesem Bereich einfach nicht.

Irgendwie schon.

Immer höhere Auflösungen und FPS Werte sind objektiv betrachtet immer wünschenswert, aber wenn man sie subjektiv gar nicht mehr wahrnehmen kann, ist es durchaus unvernünftig mehr Power zu verballern.

Will ich zurück zur 1280x1024 Auflösung, bei der Crysis mit unter 30 FPS herumstottert?
Auf keinen Fall!
Sind 4k mit über 144 FPS und Einstellungen, die maximal im Blindtest unterscheiden werden können vernünftig?
MMn auch nicht.

FSR, DLSS, Freesync und Konsorten könnten dafür sorgen, dass man eben auch weiterhin mit maximal 300 Watt im Halo Produkt auskommen, aber man wirft lieber 'mehr Power' auf das Problem.
 
  • Gefällt mir
Reaktionen: PulsarS, Innocience, Vitec und 2 andere
F1Freak schrieb:
AMD vs nVidia 2022:

AMD: + Perf/Watt, - RT-Power
nVidia: - Perf/Watt, + RT-Power

AMD: + Perf/Watt, - RT-Power, + Preis
nVidia: - Perf/Watt, + RT-Power, - Preis (egal)

;-)
 
  • Gefällt mir
Reaktionen: edenjung und karl_laschnikow
phanter schrieb:
Ist egal. Im allerbesten Fall ist AMD mit 600mm² N5+N6 genauso gut wie 600mm² N5. Und das ignoriert schon das SRAM gut mit N5 skaliert und die chip/chip Interfaces wegfallen.
SRAM skaliert deutlich schlechter als Logik.
phanter schrieb:
Das heißt best Case sie haben keinen Nachteil.
Worst Case haben sie schon gegenüber monolithisch N5 einen Nachteil und die Gerüchteküche geht bei Nvidia von 600mm² N4 aus. Damit haben sie dann definitiv einen Nachteil.
Das ist alles Kafeesatzleserei.

Es kommt auf die Performance in FPS an.
Wenn wir die wissen können wir überlegen, ob es eine gute oder schlechte Idee war.

phanter schrieb:
Die Zen Architektur ist ja auch nicht interessant weil man 360 monolithisch auf 120+2*70mm² im Mainstream aufteilen kann. Sondern weil man nen fetten 1260mm² genoa bauen kann was monolithisch nicht möglich wäre.
Das sieht AMD ein bisschen differenzierter:
Pioneering Chiplet Technology and Design for the AMD EPYCTM and RyzenTM Processor Families
Industrial Product

Samuel Naffziger, Noah Beck, Thomas Burd, Kevin Lepak, Gabriel H. Loh, Mahesh Subramony, Sean White
Advanced Micro Devices, Inc.


Die Kostenvergleiche:
  • Ryzen
    1660733057673.png
  • EPYC
    1660733158797.png
Dass nur mit dieser Vorgehensweise 64 Kerne möglich waren, war ein wichtiger zusätzlicher Aspekt. aber ohne die Kosteneinsparung bei den kleineren Kernzahlen hätte es sich nicht gelohnt. Aber der Verlauf der Balken zeigt auch dass mit 6 Kernen oder weniger monolithsch billiger wird.

Und diese Dynamik gilt auch für die GPUs. Je kleiner desto billiger.

Was auffällt ist, dass Navi 31 weniger WPG je Shaderarray als die N32 hat:
Navi 31: 4
Navi 32: 5, so wie auch Navi 21 und Navi 22

Wenn die Zahlen stimmen hat AMD die Navi 31 gegenüber einem Vollausbau mit 5 WPG je Shader Array um 12 WGP beschnitten. Der Vollausbau wäre 15360 Shader gehabt.
  1. Wieso hat die Navi 31 nur 4 WPGs je Shaderarray?
  2. Hat Navi 31 ausreichend Performance, um die TOP SKU von Nvidia zu schlagen?
  3. Wie breit muss das Speicherinterface sein, wenn um 15360 Shader auszulasten?

phanter schrieb:
Nvidia kann diese Generation maximal 800mm² N4 für ne Titan Super Ultra RTX nutzen. Mehr ist monolithisch nicht möglich (Und nutzen sie ja auch im H100).
Bei den Gaming GPUs hat Nvidia immer einen guten Abstand zum Recticle Limit gelassen. Obwohl die Karten über 1000 USD kosten.

Nur bei den Serverkarten die für 5-stellige Beträge verkauft werden, geht Nvidia nahe an das Recticle Limit.
phanter schrieb:
AMD hat schon in der MI250x gezeigt, dass sie 1480mm² können, und das ohne IO dies.
Hier hat AMD 2 Dies benötigt um mit die A100 zu toppen.

Und da im Package schon die HBM2-Stacks eingebunden werden müssen, wäre es viel zu kompliziert geworden auch von die Memory-PHY auszulagern.
 
  • Gefällt mir
Reaktionen: Colindo
Bright0001 schrieb:
Du widersprichst dir selbst...
Hatte gute Antwort aber loesch das, weil das hier teilweise Off Topic ist, daher spar ich mir das hin und her da ich nicht will das alle Nachrichten des Hin und her geloescht wird, mein 1. kommentar ist zu gut das der mit geloescht wegen so nem hin und her Wortglauberei... schick dir den Kommentar per Chat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
@ETI1120

Die Kosten sind egal, ich will nen fettes Flaggschiff. Ist ja schön das AMD in der Midrange höhere Margen hat. Aber es wäre ihre Generation um mal im High end aufzuräumen, was sie nicht tun werden.

Bei den Gaming GPUs hat Nvidia immer einen guten Abstand zum Recticle Limit gelassen. Obwohl die Karten über 1000 USD kosten.
Wie gesagt 2080 Ti - 754mm²
Da ist also noch gut Luft nach oben auch im Consumer Bereich
 
Doofe Frage: Gibts eigentlich irgendwas handfestes warum immer wieder geschrieben wird das Nvidia die nächste Gen im vergleich zu AMD ein wesentlich schlechteres Perf/Watt Verhältnis haben soll?

Momentan ist Nvidia mit ner schlechteren Fertigung fast gleichauf mit AMD und nächste Gen setzen beide auf das gleiche Verfahren.
 
  • Gefällt mir
Reaktionen: Convert und Ayo34
Zurück
Oben