News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

AfFelix schrieb:
@danyundsahne DLSS ist etwas rechenintesiver als XESS auf AMD und es war nur ne Beta. Da würde ich wirklich abwarten auf einen Test ohne DLSS und vom fertigen Spiel. nach Day 1 Patch.

Insofern etwas verzerrt aber ja P/L mäßig ist das gar keine Frage. Die 5080 ist in 4k RT zirka 25-30% schneller und kostet 50-60% mehr
Ging ja auch nur um diese 2 Bsp Games....die Behauptung "deutlich" geschlagen von einer 5080 ist halt Murks.

Stimmt natürlich in anderen PT Benchmarks. Da ist NV nach wie vor Platzhirsch.

Aber im RR und RT ist AMD NV doch sehr dicht auf den Fersen mit ihrer 650€ Karte....egal ob es eine 5070Ti ist oder teilweise eben auch einer 1000€ 5080. Man kann sehr gut konkurrieren für dieses Geld.

Dass man in PT auf Niveau einer 500€ 5060ti 16GB ist mit einer 650€ Karte, ist das eine. Hier ist man auch Preislich sehr nah beieinander. Aber dass man auch auf anderer Seite im Raster immer wieder mal auf ein 1000€+ 5080 Niveau kommt (wohlgemerkt in nagelneuen UE5 Titeln, welche aktuell ja das Non-Plus-Ultra der Game Engines ist), ist dennoch sehr beachtlich für AMD.

Und eine 5070ti und 5080 sind preislich deutlich zu weit auseinander für das was die 5080 mehr leistet. Daher kommt eben eine 9070XT automatisch sehr nah von ihrer eigentlichen Konkurrentin 5070ti an eine 5080 ran. Isso
Ergänzung ()

Taxxor schrieb:
Schalte mal auf UWQHD, dann werden aus +7% schon +18%, in 4K dann wieder nur +13%
Insgesamt komisches Verhalten
Und in 4k sinds 13% AVG. Und in den noch wichtigeren 1% Lows sind es nur noch magere 11% Vorsprung, schon klar.
Was möchtest mir jetzt damit sagen?
Was kostet ne 5080 nochmal Aufpreis?

Aber ich bin jetzt wieder ruhig. Ich wollte nur @LikeHike 's Aussage dahingehend korrigieren, dass in den beiden Games eine 9070XT alles andere als deutlich geschlagen wird. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
danyundsahne schrieb:
Und in 4k sinds 13% AVG. Und in den noch wichtigeren 1% Lows sind es nur noch magere 11% Vorsprung, schon klar.
Was möchtest mir jetzt damit sagen?
Was kostet ne 5080 nochmal Aufpreis?
Hab ich ja geschrieben dass es 13% in 4K sind und mittlerweile erzänzt um eine Einschätzung, dass mit den 4K Werten der 5080 irgendwas nicht stimmt, da sollten eigentlich ~20-25% rauskommen, wie man es auch im Gesamtranking sieht und wenn man sieht wie die anderen Karten sich verhalten.

Und das in einer eigentlich eher AMD freundlichen Engine.
Ebenfalls im anderen Post ergänzt, 850-900€ wäre aktuell ein vertretbarer Preis für die 5080, das wären ~35% Aufpreis für eben ~20% Raster und ~25% RT(und ~50-100% PT) Mehrleistung im Schnitt und nach wie vor dem DLSS Vorteil und der Tatsache, dass über ihr keine alternative AMD Karte mehr kommt und die Preise schon alleine dadurch höher sind als der reine Leistungsvorsprung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
Quidproquo77 schrieb:
Dein Taktieren um eine direkte Aussage zu vermeiden, sprich immer gekonnt um die doch offensichtlich notwendige Gegendarstellung herumzutanzen, offenbart halt deinen persönlichen Bias alles immer besonders positiv für AMD darzustellen und besonders negativ bezüglich Nvidia, obwohl es dafür eigentlich gar keinen Grund gibt. Aber es passt gut mit dem Wechsel von einer 4090 auf eine 9070XT zusammen
Sagt quasi Mr.Nvidia & Mr.Intel.
Für mich bist du der absolut unneutralste Poster und total offensichtlich pro Nvidia & Intel jedes mal.
Du unterstellst mir zwar Undifferenziertheit weil ich angeblich die Falschen Modelle gegen die Falschen Modelle antreten lasse, so wie der andere Nvidia Kunde eben bei dem Thema Preis leistung.
Doch im Endeffekt ändert das doch nichts in der Tatsache das je nach Kontext mal Nvidia und mal Radeon besser ist.
Aber bei dir ist Radeon immer Generell schlechter, Uneffizienter, Unterlegen etc.
Also wirklich, ich will dich ja nicht fanboy nennen, aber du erfüllst die Voraussetzungen für diesen Titel.
Ich kann wenigstens zugeben das die Geforce bei vielen Szenarioen wie zb Pathtracing, Raytracing, oder wenn Geld keine Rolle spielt, oder Spiele kein FSR 4 haben besser ist.
Das unterscheidet mich von dir. Und das obwohl ich selber kein Problem damit habe wenn mich jemand AMD Fanboy nennt.
Bitte bemüh dich mal um mehr Sachlichkeit.
Quidproquo77 schrieb:
Der Marktanteil wird natürlich kaum durch psychologische Konsumentenbindung erreicht, sondern durch harte Faktoren.
Da unterschätzt du die Emotionalität vieler Menschen.
Die meisten die ich kenne kaufen nur Blind nach Marke.
Zb gestern ein alter Kumpel der damals zu Freelancer (2003) Zeiten einen lahmen Intel Pentium 4 hatte, der teurer und langsamer war als die Athlon XP,s die damals die meisten aus unserem engeren Umfeld hatten.
Ihm war das damals egal weil er unbedingt Intel wollte. Und er war auch damals Geforce Fan obwohl die Radeon 9700 Pro zu dem Zeitpunkt die Weltbeste Grafikkarte war.
Gestern bekam er nach über 10 Jahren Zocken am LapTop mal wieder lust auf einen PC und fragte mich, ob Ich ihm einen PC fürs Zocken von Space Marines 2 zusammenzustellen könnte.
Ich fing garnicht erst damit an dass AMD CPU,s zz besser sind. Ich sagte ihm. "Lass mich raten, es soll Nvidia und Intel sein wie immer richtig ?" Er stimmte lachend zu.
Ihm war die Marke extrem wichtig. Und so geht es vielen die ich kenne.
ElliotAlderson schrieb:
Doch, können sie, weil das SDK erst vor kurzem rauskam. Die Entwickler können nichts implementieren, was nicht existiert.
Da hast du Recht.
Taxxor schrieb:
Hab ich ja geschrieben dass es 13% in 4K sind
Macht den fast 50% Aufpreis immer noch nicht Wert wenn wir ehrlich sind.
Also für arme wie mich.
Für Bonzen sind die paar Euro sicher egal.
 
  • Gefällt mir
Reaktionen: SweetOhm und eXe777
Ach schade, hatte auf ne wirklich starke Graka gehofft, mit >128 CUs.
 
Navi 31 ist Uralt alles +/- unter Doppelt wäre eh ein Armutszeugnis. Oder Absprache.

Darf dann gerne €1500 kosten. Eh schon Norm.
 
danyundsahne schrieb:
En Titel, yay. Ein Ausreißer, mehr nicht.
danyundsahne schrieb:
7%, 18%, 13% (je nach Auflösung)

Ziemlich solide und nicht minimal. Und um das von dir gezeichnete Bild zu vervollständigen auch noch der Hinweis auf den heute bei CB erschienenen GPU Vergleich. Hier kommen wir auf durchschnittliche Unterschiede von 19% und 24% in Rasterizer sowie 21% und 26% in Raytracing, je nach Auflösung. Also ziemlich solide +20%.
 
  • Gefällt mir
Reaktionen: MalWiederIch
beckenrandschwi schrieb:
hatte auf ne wirklich starke Graka gehofft, mit >128 CUs.
Du bekommst angeblich bis zu 192 "alte" CUs.

Wir reden hier nicht von den 12288 Doppelfunktions-Einheiten welche sich auch in Navi 31 verbergen. Sondern wohl echte 12288 Shader(96CUs a 128Shader ).
Nur halt nicht mehr 64 Shader pro CU sondern 128.

Das wird Auslastungsgründe haben.

5060ti->5080->5090 jeweils eine Verdopplung aber eine teils enorme Abnahme der Leistung/Shader.
Die 5080 Leistet nur 91% und die 5090 nur 68% pro Shader verglichen mit der 5060ti. (Wohlgemerkt in 4kRT was recht Auslastungsfreundlich ist.

Damit das nicht passiert wird man groß umstrukturieren (müssen).

Wenn AMD bei 75% oder gar 80% Auslastung im Vergleich zur 9060xt können sie sich zusammen mit den gemutmaßten 10%IPC so zirka 25% vor eine 5090 setzen.

Das ist jetzt anhand von Navi48&44 approximiert.
Mit GDDR7 kommen hoffentlich nochmal 5-10% hinzu.

Das wäre ein guter Fortschritt und würde an den Generationswechsel RX5000->RX6000 erinnern.

Wäre da nicht der Mininghype gewesen wären die Preise auch ok gewesen.
(700€ für eine 3080/6800xt die 90% der 90er-Leistung hatten das waren noch Zeiten)

Ob AMD wirklich ein 600-650mm² Die für uns Gamer rausbringt dahinter mach ich allerdings ein fetttes Fragezeichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: beckenrandschwi und Nighteye
AfFelix schrieb:
Die 5080 Leistet nur 91% und die 5090 nur 68% pro Shader verglichen mit der 5060ti. (Wohlgemerkt in 4kRT was recht Auslastungsfreundlich ist.
Spannend.
So gesehen waren die Größeren Blackwell Chips schon zu groß und die Energie Effizienz hätte abnehmen sollen oder ?
Was ich mich da dann frage ist, wieso ist die RTX 5060ti dann nicht Effizienter als die RTX 5080 ?
Kannst du mir das evtl erklären ? (Am Takt kann es nicht liegen, RTX 5080 und RTX 5060ti haben ca den gleichen Boost Takt)
 

Anhänge

  • 1756741997233.png
    1756741997233.png
    60,1 KB · Aufrufe: 75
  • Gefällt mir
Reaktionen: SweetOhm
AfFelix schrieb:
Wenn AMD bei 75% oder gar 80% Auslastung im Vergleich zur 9060xt können sie sich zusammen mit den gemutmaßten 10%IPC so zirka 25% vor eine 5090 setzen.
Dafür dass man diese Gen im Highend ausgesetzt hat darf zur 9070XT eigentlich nichts geringeres als der Sprung von 5700XT zu 6900XT rauskommen und das waren etwas mehr als +100% in WQHD.
Da steht die 5090 bei +60% also 200/160=1,25
Und das im Besten Fall bei 400W und dann gerne auch für 1499€
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und AfFelix
Nighteye schrieb:
Spannend.
....
Was ich mich da dann frage ist, wieso ist die RTX 5060ti dann nicht Effizienter als die RTX 5080 ?
Kannst du mir das evtl erklären ?
Kann mir das nur damit erklären, dass die Basislast (abseits der Shader) sowas wie: Displayengine, PCIE etc
halt genügend ausmacht um das zu kaschieren.

Die 5080 skaliert auch noch recht gut. Bei der 5090 sieht man es dann ja auch bei der Effizienz.
Ergänzung ()

Taxxor schrieb:
Dafür dass man diese Gen im Highend ausgesetzt hat darf eigentlich nichts geringeres als der Sprung von 5700XT zu 6900XT rauskommen und das waren etwas mehr als +100% in WQHD.
Ich hoffe es auch.

+35% im Vergleich zur 5090 wäre mMn Machbar mit einem ? ~600mm² ? Die in N2.

Nur auf den Preis freu ich mich überhaupt nicht.

Ein Navi48 Die kostet so 130?$
So ein AT0 Die würde die 500$ erreichen. Und die Marge wächst nach oben hin ja eher........
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nighteye
LikeHike schrieb:
En Titel, yay. Ein Ausreißer, mehr nicht.
So viel zu dem einen Ausreißer:
https://www.computerbase.de/artikel...s_in_wqhd_uwqhd_und_ultra_hd_mit_hwraytracing
https://www.computerbase.de/artikel..._benchmarks_in_wqhd_uwqhd_und_ultra_hd_update
https://www.computerbase.de/artikel..._in_wqhd_uwqhd_und_ultra_hd_mit_softwarelumen
https://www.computerbase.de/artikel...schnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd
https://www.computerbase.de/artikel...schnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd
https://www.computerbase.de/artikel...schnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd

Um ein paar Ausreißer zu nennen, sind es aber schon so einige...und es gibt noch mehr. War jetzt nur zu faul alles durchzuwühlen.
Und schau mal auf die 1% Lows, die sind meist noch näher an der 5080 dran als manchen lieb ist.

Also entweder ist eine 5080 besonders lahm für ihre 1000€+? Oder die 9070XT ganz schön schnell für ihre 650-750€ ;)

LikeHike schrieb:
Ziemlich solide und nicht minimal. Und um das von dir gezeichnete Bild zu vervollständigen auch noch der Hinweis auf den heute bei CB erschienenen GPU Vergleich. Hier kommen wir auf durchschnittliche Unterschiede von 19% und 24% in Rasterizer sowie 21% und 26% in Raytracing, je nach Auflösung. Also ziemlich solide +20%.
Das ist mir bewusst, mir gehts um deine Aussage, dass worüber wir diskutieren, sei nur ein einziger Ausreißer. Nein, ist es nicht.
Es häufen sich aktuell die Titel die entweder AMD sehr gut liegen, oder NV kacke abschneidet im Verhältnis.

Weil wenn wir von einem "vollständigen Bild" sprechen wie du schreibst, dann gehört auch dazu, dass es kaum PT Titel gibt. Wie viel machen die aus? Vll 0,01% von allen Games? Also verschwindend geringe bis keine Auswirkungen.
Somit wäre ja die PT Überlegenheit von NV dahin und somit überhaupt kein Argument mehr, nicht wahr? ;)
 
  • Gefällt mir
Reaktionen: SweetOhm
danyundsahne schrieb:
Das ist mir bewusst, mir gehts um deine Aussage, dass worüber wir diskutieren, sei nur ein einziger Ausreißer. Nein, ist es nicht.
Offensichtlich schon, sost würde der durchschnittliche Vorteil nicht bei ~20% liegen.
danyundsahne schrieb:
Weil wenn wir von einem "vollständigen Bild" sprechen wie du schreibst, dann gehört auch dazu, dass es kaum PT Titel gibt.
Dann ist ja noch besser dass ich mich in keiner einzigen Aussage darauf bezogen habe.
 
DevPandi schrieb:
Eigentlich hat AMD bereits die 12.288 ALUs schon bei RDNA 3 gehabt, weil hier die Vec32-ALUs zwei "Flanken" haben - Dual-Issue. Ein X und ein Y-Befehl können als VLIW2-Verpackt zur gleichen Zeit ausgeführt werden.

Wenn UDNA die Dual-Issue-Fähigkeit behält, dann wären wir sogar bei 24.576 Shader. Gleichzeitig gibt es bei 96 CU mit 128/256 Shadern wieder ein Problem und das wäre die Anzahl an Tasks, die die GPU benötigt.
Hat RDNA4 eigentlich das Dual Issue Design von RDNA3 übernommen? Zumindest habe ich noch nirgendwo was von einem Frontend oder Shadertakt gelesen.
 
  • Gefällt mir
Reaktionen: SweetOhm
ETI1120 schrieb:
Die AT0 ist weder MI500 noch deren Nachfolger.
Das behaupte ich ja auch gar nicht. Die Instinct-Serie wird bei HBM-Speicher bleiben. Aber zwischen den Instinct-Karten und einem Nachfolger von Navi44 bzw. Navi31gibt es durchaus genügend Platz für zusätzliche Karten mit KI-Fokus.

ETI1120 schrieb:
DAs ändert aber nichts an den Kosten des Dies. Nvidia kann sich das leisten weil sie viele GB202 in den Profi-Karten absetzen können.

Bei AMD sieht das ganz anders aus.
Wenn die Stückzahlen eher geringer sind macht es doch umso mehr Sinn den gleichen Chip für KI und Gaming zu nutzen. In der KI-Variante gibt es unbeschnittene Chips mit bis zu 96GB VRAM und für Gaming beschnittene Versionen mit eben 24-32GB VRAM. Die Herstellungskosten sind höher als bei einem reinen Gaming-Chip, aber man spart sich Entwicklungskosten und hat höhere Stückzahlen für den einen High-End-Chip (Die Instinct Karten bauen ja auf Chiplets und HBM auf und laufen daher sowieso separat).
 
  • Gefällt mir
Reaktionen: N0Thing
AfFelix schrieb:
Die 5080 Leistet nur 91% und die 5090 nur 68% pro Shader verglichen mit der 5060ti. (Wohlgemerkt in 4kRT was recht Auslastungsfreundlich ist.
Man kann das ja bei AMD auch sehen, setzt man das Power Limit der 9070 um 10% hoch liegt sie nur noch 5% hinter der 9070xt, von den Shadern her müsste die xt viel weiter vorn liegen. Daraus kann man auch ableiten dass eine größere Karte mit noch mehr Einheiten keinen Sinn gemacht hätte, vom Mehrverbrauch der XT mal abgesehen, der ja jenseits von gut und böse ist für das bisschen mehr Leistung.
 
  • Gefällt mir
Reaktionen: Nighteye
Quidproquo77 schrieb:
Es wird zumindest nirgends erwähnt, aber ist ja auch nicht notwendig für alles eine HW Beschleunigung zu haben. Microsoft macht das jedenfalls nicht zur Bedingung um SER über DXR 1.2 zu nutzen.

Die Sortierhinweise um ähnliche Threads zusammenzuführen könnten bis zu einem gewissen Grad auch effizient Änderungen per Software Direktive über HW Wafefront Scheduler funktionieren.
Bei Nvidia übernimmt das direkt die Hardware, bei AMD teils, teils. Nichts ist unmöglich.^^
Hardware ist immer schneller siehe auch async Compute fails bei der ersten unterstützten Nvidia Gen
Ergänzung ()

Quidproquo77 schrieb:
Ja, wo ist denn deine Differenziertheit? Die 9070XT in Pathtracing etwas hinter einer 5060Ti liegend wird als "Achtungserfolg" verkauft, währenddessen ein Aufholen der 9070XT auf die RTX 5080 in UE5 Titeln hypothetisch propagiert wird und nicht das wiederholte Cherrypicking sondern die Widerlegung dessen negativ mit einer erfundenen "Unterstellung" konnotiert. Der Vorsprung von Nvidia ist "zur Zeit". Man könnte das natürlich ganz anders sehen und darstellen, gewissen Hardwaresupport erwähnen und dadurch Rückschlüsse auf die Zukunft entwickeln, usw, aber nein, man entscheidet sich lieber für den AMD Fine Whine Mythos.
So ist es, die Negativpunkte von AMD werden nie angesprochen. Und fine wine ist wohl klar Nvidia, dlss4 bis GPUs 2018 zurück während die 2 Jahre alte rdna3 GPUs nicht Mal FSR4 bekommen. Oder das Speicher downgrade. Spricht das wer an? Hätte ich nie gehört
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
blackiwid schrieb:
Q1, wann hat Nvidia ihre neue Gen released und wann AMD?
Tipp:
RTX 5090: 30. Januar
RX 9070: 6. März

Also cherrypicked Quartal... ja in einem Quartal mag das stimmen das macht es aber keine allgemeine Wahrheit.
Ja in 3 Wochen hat AMD deutlich weniger verkauft als Nvidia in 8 Wochen... wow. Zumal AMD anders wie bei RDNA2 die RDNA3 0 Rabatiert hat Wucherpreise bis heute.
Geht dir das Strohhalm suchen nicht selbst Mal auf die Nerven anstatt einfach mal die realität zu akzeptieren? Nimmst halt das vorvorquartal mit 85% oder das vorvorvorquartal mit 88%.
Die rtx 5090 hat sich öfter verkauft als die 9070er von AMD, die 5070 liegt bei Steam vor allen anderen dedizierten AMD Karten und das nach 5 monaten
 
Zurück
Oben