News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

zeedy schrieb:
Ist es also der Shader Takt, der bei RDNA4 immer angegeben wird?
RDNA 3 hatte bei Navi 31 und Navi 32 zwei Taktdomänen, die du jedoch grob in "GPU" und "Interconnect" teilen kannst. Alles bei RDNA 3 läuft mit Shader-Takt, nur der Interconnect wird oft schneller getaktet, da man das GCD + MCD-Design ausgleichen musste.
 
  • Gefällt mir
Reaktionen: zeedy
Nighteye schrieb:
..weil ich angeblich die Falschen Modelle gegen die Falschen Modelle antreten lasse, so wie der andere Nvidia Kunde eben bei dem Thema Preis leistung.
Wie oft hast du nun schon einzelne Spiele verlinkt und darauf deine Argumentation aufgebaut? Quellen/Links gibst du nie an und dann klickst du die Hälfte der Karten aus dem Index (5070 Ti/5080/9070XT), damit AMD über Gebühr besser da steht, Pathtracing Effizienz verlink ich zur Vollständigkeit halber nicht.
Screenshot_2025-09-01-20-03-58-14_40deb401b9ffe8e1df2f1cc5ba480b12.jpg

https://www.pcgameshardware.de/Rade...iew-Benchmarks-Details-Performance-1474877/6/

Und das einfach in jedem deiner Beiträge der Fall, es wird immer zugunsten AMD verdreht.
Nighteye schrieb:
Aber bei dir ist Radeon immer Generell schlechter, Uneffizienter, Unterlegen etc.
Wenn dir jeden Tag x User erzählen wie toll AMD doch sei und solche argumentatorischen Klimmzüge und einseitige Vergleiche bringen, bist du es irgendwann Leid und das hat auch wenig mit dem Topic zu tun. Ich wünsche mir einfach nur, dass AMD wie bei den CPUs abliefert.
Nighteye schrieb:
Da unterschätzt du die Emotionalität vieler Menschen.
Spielt keine Rolle, das Geld wird im OEM Bereich gemacht mit Gaming Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
Mal wieder Cherry Picking deinerseits QuittproNvidiaQuo
Die RX9070XT ist weit über dem Sweetspot ausgeliefert.
Computerbase Tests belegen dies.
Damit will ich sagen. Die RX9070XT ist Technisch viel Effizienter Betreibbar.
Es war AMD,s Fehler sie so sehr mit der Brechstange zu Releasen.
Die Karte wurde von AMD viel zu stark Overclocked ausgeliefert.
Die Technik der Karte sieht sehr viel besser aus, betreibt man sie bei ein bisschen weniger Takt.
 

Anhänge

  • RDNA 4 Sweetspot.jpg
    RDNA 4 Sweetspot.jpg
    341,4 KB · Aufrufe: 134
  • Gefällt mir
Reaktionen: zeedy und SweetOhm
An 512 Bit Speicherinterface glaube ich nicht. Das wurde schon vor 20 Jahre immer vermutet, dass es mit der nächsten Generation komme. Ist einfach nicht erforderlich.
 
Nighteye schrieb:
Die Karte wurde von AMD viel zu stark Overclocked ausgeliefert.
Die Technik der Karte sieht sehr viel besser aus, betreibt man sie bei ein bisschen weniger Takt.
Und wenn man die Karte nicht händisch optimiert sondern sie genau so betreibt wie vom Hersteller vorgesehen und gegen die beiden Konkurrenten stellt, die ebenso betrieben werden, ist das Cherry-picking?

Ne 5080 konnte CB im Test um fast 500MHz übertakten und >10% Performance rausholen, ohne dass die Karte dadurch sonderlich mehr verbraucht hat.
Und da kann man nun auch noch mit Undervolting oben drauf kommen.

Entweder man optimiert beide und vergleicht dann oder man vergleicht beide so wie sie vom Hersteller konfiguriert wurden.

Hier PT Limits und Undervolting für die 9070XT anzuführen, ohne das gleiche bei 5070Ti und 5080 zu tun, DAS ist Cherry-picking
 
  • Gefällt mir
Reaktionen: Stramma, Quidproquo77, ElliotAlderson und eine weitere Person
Pro_Bro schrieb:
Man kann das ja bei AMD auch sehen, setzt man das Power Limit der 9070 um 10% hoch liegt sie nur noch 5% hinter der 9070xt, von den Shadern her müsste die xt viel weiter vorn liegen.

Daraus kann man auch ableiten dass eine größere Karte mit noch mehr Einheiten keinen Sinn gemacht hätte, vom Mehrverbrauch der XT mal abgesehen...
Ich weiß was du meinst und teilweise hast du Recht.

Es stimmt die Energieeffizienz der 9070xt ist beschissen. Weit über Sweetspot

Der passendere Vergleich wäre hier allerdings die 9060XT um über Shaderskalierung zu sprechen.
Du lässt nämlich entscheidende Punkte außer Acht.

Die 9070 ohne XT hat einen Bandbreiten (und Cache?) Vorteil pro Shader.
Die 9070XT reagiert sehr gut auf Speicher OC.

Insofern ist die 9060XT da sie genau die Hälfte der 9070xt darstellt der bessere Vergleichswert mMn.

Da ist die Skalierung ziemlich Identisch wie bei Nvidia
5060ti (100% Shadereffiz.) 5080 (91%)

9060xt (97%) und die 9070xt (88%)(Im Vergleich zur 9060xt sind das auch 91%)
Fraglich ist warum die 5090 (68%) so überproportionale Auslastungsprobleme hat und ob AMD das bei UDNA/RDNA 5 vermeiden kann.
 
Taxxor schrieb:
Und wenn man die Karte nicht händisch optimiert sondern sie genau so betreibt wie vom Hersteller vorgesehen und gegen die beiden Konkurrenten stellt, die ebenso betrieben werden, ist das Cherry-picking?
Ich gebe zu, für den 0815 User ist es zuviel verlangt das Powerlimit von 100% auf 80% im Treiber zu senken.
Da sehe ich Schuld bei der Werkseinstellung von AMD.
Die Technik selber aber, ist vom Potential nicht wirklich schlechter und erst recht kein "Fehltritt" wie Quidproquo es ständig wiederholt.

Taxxor schrieb:
Ne 5080 konnte CB im Test um fast 500MHz übertakten und >10% Performance rausholen, ohne dass die Karte dadurch sonderlich mehr verbraucht hat.
Das stimmt nicht.
Zitat aus dem RTX 5080 Test von CB:
"nach der Übertaktung liegt dieses bei 372 Watt. Die Taktrate der GPU erhöht sich von 2.647 MHz auf 3.047 MHz"
372W ist schon deutlich mehr als die Typischen 311W die Wikipedia angibt.
Der RTX 5080 CB Test sagt auch, die Effizienz nimmt bei OC nicht ab. Sie bleibt gleich.
1756756134601.png

Mein Beispiel zeigte aber eine Effizienzsteigerung von über 1/4 bei der Radeon.
Damit wäre sie in dem Bild von Quidproquo Effizienztechnisch in Raytracing gleichauf.
Das ist ein ganz anderer Kontext.
Nvidia Effizienz bleibt mit Anpassung Gleich vs Radeon über 1/4 mehr Effizienz.
Das zeigt auch das die Geforce nicht so sehr mit der Brechstange ausgeliefert wurde wie die Radeon.
Und genau das war mein Tenor.
Mir geht es rein um die Technik.
 
  • Gefällt mir
Reaktionen: SweetOhm
TheInvisible schrieb:
Geht dir das Strohhalm suchen nicht selbst Mal auf die Nerven anstatt einfach mal die realität zu akzeptieren?
Nein davor suchen hilft auch nicht da es ja niemand bestreitet das RDNA3 richtig kacke war, also nicht so schlimm wie Bulldozer bei den Prozessoren aber ja zumindest der Tiefpunkt.

Wenn jetzt also der Marktanteil steigt, sagt das viel aus, nochmal Steam ist hoch problematisch aus zig Gründen.
Das mit Internetcafes hab ich schon genannt, aber kann noch weitere auflisten.
Es wird dort nicht zwischen Mobilen und Desktop Karten unterschieden, von der letzten Gen wurde es unterschieden obwohl es 90 Laptops mit 5070 gibt wird das hier nicht aufgeteilt entweder sind die Zahlen also komplett veraltet, die 5070 Mobile kam auch im März raus, oder sie wird einfach dazu gezählt.

Beide kamen auch früher raus als 9070, selbst wenn sie gleichzeitig raus gekommen wären, würde ich Nvidia mehr als 50% Marktanteil hat, das doch nicht die Frage, ja 80 oder 92% macht nen riesen unterschied besonders wenn der Trend nach unten zeigt. Laut diesen Fantasiezahlen hätte sich die 9070 und 9070xt weniger als 0,15% verkauft und die von allen Reviewern als total beschissene Karte der 5070 wohl die schlechteste der Generation, gut für Gamer mag die 5090 noch schlechter sein, >1%.

Wenn ich denen ihre Zahlen glaube dann hat AMD wohl nur 5 Karten Weltweit verkauft insgesamt im letzten halben jahr...

Eine weitere einfache Fehlerquelle, man stelle sich einen Spieler vor der 10h im Monat spielt und einen der 150 spielt, bekommen dann beide gleich wahrscheinlich ein Steam Survey?

Wenn nicht sagt das Steam Survey mehr aus das Nvidia Käufer mehr spielen nicht wie viel Karten verkauft werden. Meanwhile vermeldet AMD Rekordgewinne im Gaming Sektor... ich glaub mal nicht das die ihre Aktionäre belügen während diese minderwertigen Steamsurveys keine Grundlage für ne Klage darstellen können wenn sie dort Bullshit verbreiten.
 
Nighteye schrieb:
Das stimmt nicht.
Zitat aus dem RTX 5080 Test von CB:
"nach der Übertaktung liegt dieses bei 372 Watt. Die Taktrate der GPU erhöht sich von 2.647 MHz auf 3.047 MHz"
372W ist schon deutlich mehr als die Typischen 311W die Wikipedia angibt.
Vielleicht auch hier wieder nicht Cherrypicken und das Spiel mit dem höchsten Verbrauch rausnehmen und das dann auch noch mit einem „typischen“ Verbrauch laut Wikipedia vergleichen sondern das nehmen was die Karte Stock in diesem Spiel zieht, steht im exakt gleichen Absatz: 334W. Das sind 11% mehr für in dem Fall 13% Mehrleistung.


Aber Cherry-picking kann ich auch und nehme FF XIV

Die Total Bord Power steigt laut Telemetrie dabei nur von geringen 218 Watt auf immer noch geringe 239 Watt an
Für 11% Mehrleistung.

Und weiter unten
Übertakten kann sich also auf der GeForce RTX 5080 Founders Edition lohnen, erst recht weil die Leistungsaufnahme nicht einmal proportional dazu ansteigt.
Soso, die Leistungsaufnahme steigt nicht proportional zur Performance an
Hört sich das für dich so an als würde die Effizienz gleich bleiben?
Ergänzung ()

Nighteye schrieb:
Das ist ein ganz anderer Kontext.
Nvidia Effizienz bleibt mit Anpassung Gleich vs Radeon über 1/4 mehr Effizienz.
Wo sind denn die Daten von der 5080 mit 90% PT und -90mv?

Wie gesagt entweder bei beiden die gleichen Anpassungen für einen Vergleich oder lass es sein.

Meine 4090 zieht eh beide Karten ab was Efifzienz angeht^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Pro_Bro und ElliotAlderson
Taxxor schrieb:
Das sind 11% mehr für in dem Fall 13% Mehrleistung.

Wo sind denn die Daten von der 5080 mit 90% PT und -90mv?
11% mehr Verbrauch für 13% mehr Leistung ist kein Effizienz Gewinn von 1/4 wie bei der Radeon.
Und bei dem Bild der Radeon bezog sich mein Text links im Bild auf stumpfes 80% Powertarget ohne undervolting.
Zu deiner Frage. Musst du CB fragen wieso die das nicht für die RTX 5080 getestet haben.
 
  • Gefällt mir
Reaktionen: SweetOhm
Nighteye schrieb:
11% mehr Verbrauch für 13% mehr Leistung ist kein Effizienz Gewinn von 1/4 wie bei der Radeon.
Natürlich nicht, aber deshalb kannst du nicht einfach 2 unterschiedliche Arten des Tunings nehmen und daraus machen, dass AMD mit Tuning besser wird als NVIDIA.
Wenn du keine Daten für einen fairen Vergleich finden kannst, dann mach ihn nicht.
Ansonsten machst du halt genau das was du hier anderen vorwirfst
 
  • Gefällt mir
Reaktionen: Stramma, Pro_Bro und ElliotAlderson
blackiwid schrieb:
Es wird dort nicht zwischen Mobilen und Desktop Karten unterschieden, von der letzten Gen wurde es unterschieden obwohl es 90 Laptops mit 5070 gibt wird das hier nicht aufgeteilt entweder sind die Zahlen also komplett veraltet, die 5070 Mobile kam auch im März raus, oder sie wird einfach dazu gezählt.
Klar wirds unterschieden "NVIDIA GeForce RTX 5060 Laptop GPU" und "NVIDIA GeForce RTX 4070 Laptop GPU" zb geb dir doch ein wenig Mühe wenigstens
blackiwid schrieb:
Laut diesen Fantasiezahlen hätte sich die 9070 und 9070xt weniger als 0,15% verkauft und die von allen Reviewern als total beschissene Karte der 5070 wohl die schlechteste der Generation, gut für Gamer mag die 5090 noch schlechter sein, >1%.
Boah du musst noch viel lernen von Forenblasen und was wirklich gekauft wird.
blackiwid schrieb:
Eine weitere einfache Fehlerquelle, man stelle sich einen Spieler vor der 10h im Monat spielt und einen der 150 spielt, bekommen dann beide gleich wahrscheinlich ein Steam Survey?

Wenn nicht sagt das Steam Survey mehr aus das Nvidia Käufer mehr spielen nicht wie viel Karten verkauft werden. Meanwhile vermeldet AMD Rekordgewinne im Gaming Sektor... ich glaub mal nicht das die ihre Aktionäre belügen während diese minderwertigen Steamsurveys keine Grundlage für ne Klage darstellen können wenn sie dort Bullshit verbreiten.
Bei AMD hat sich der Umsatz eher wieder normalisiert nach dem letzten low von nur 600Mio wo auch die Konsolen und Handheld Geräte drinnen sind. Klar gehen die 9070er Karten gut weg für AMD Verhältnisse aber Nvidia ist hier mindestens mehrere Ligen größer, AMD hätte bei TSMC nicht mal die Kapazitäten einen größeren Teil der Nvidia Lieferungen zu ersetzen.
 
DevPandi schrieb:
Das Problem ist, dass für RDNA 5 / UDNA zwar nicht von AMD, aber durch die Gerüchteküche bereits vor einem Jahr die ersten "Gerüchte" aufkamen, dass AMD bei RDNA 4 nur noch mit den notwendigen Entwicklern weiter macht und RDNA 5 / UDNA priorisiert und diese damit "zeitiger" auf den Markt kommt. Hier war dann Anfang 2026 bis Mitte 2026 im Gespräch.
Was gerne vergessen wird, AMD hat die Release Frequenz für CDNA auf jährlich umgestellt.
Die MI400 wird H1 2026 released.

Dazu braucht es Leute. Die MI400 soll GFX12.5 sein. Die GPUs über die wir hier diskutieren sind GFX13.

Alle reden von 2027.

DevPandi schrieb:
Eigentlich hat AMD bereits die 12.288 ALUs schon bei RDNA 3 gehabt, weil hier die Vec32-ALUs zwei "Flanken" haben - Dual-Issue. Ein X und ein Y-Befehl können als VLIW2-Verpackt zur gleichen Zeit ausgeführt werden.
Aber nur die Anzahl der ALUs wurde beachtet. Dual Issue war als Name bekannt aber niemand hat verstanden wie das zusammen passt. Auch nicht als klar war dass die Dies zu klein sind um der 4090 gefährlich zu werden.

DevPandi schrieb:
Wenn UDNA die Dual-Issue-Fähigkeit behält, dann wären wir sogar bei 24.576 Shader.
Oder es wurden wieder die Zahlen der ALUs wie bei RDNA3 verdoppelt und Dual Issue als vollwertige ALUs gezählt. Deshalb sage ich bevor wir keine Die Sizes kennen ist es ein Ratespiel
DevPandi schrieb:
Gleichzeitig gibt es bei 96 CU mit 128/256 Shadern wieder ein Problem und das wäre die Anzahl an Tasks, die die GPU benötigt.
Das ist genau der Punkt, der bei den großen Zahlen gerne ignoriert wird. Shadern, die nicht ausgelastet werden, bringen keine Performance.

Da finde ich es interessant dass es massive Änderungen an der Cache Hierarchie geben soll. Diese Infos sind über Einträge in Sourcen besser belegt.
DevPandi schrieb:
Jetzt kommt es halt darauf an, was AMD hier gemacht hat und wer was wie meint. Es gibt da ein paar Szenarien:

1. Baut AMD die WGP zu neuen CU um, wird es interessant, was sich alles von WGP zur neuen CU ändert. Es wird sehr schwer dann wirklich schon Leistungsprognosen zu machenb.
Dazu hat sich gestern jemand im Anandtech Forum geäußert. Auch hier spielen die Änderungen der Cache Hierarchie rein. Ist ein bisschen über meinem Horizont.
DevPandi schrieb:
2. AMD benennt die WGP zu CU um, auf der Basis kann man zumindest hypothetische Spiele betreiben.,
Aber hier fällt dann schon die große Lücke zwischen AT0 und AT2 auf.
DevPandi schrieb:
3. Die Gerücht, dass die neuen CU 128 Shader haben sind falsch, auch dann kann man eine Prognose betreiben.
Oder es werden die Dual Issue ALUs plötzlich wieder gezählt, was aufs selbe rausläuft.
DevPandi schrieb:
Es gibt noch einen weiteren Faktor, denn wir hier beachten müssen: N2 oder N3.

Käme der Chip in N3 oder N2, wäre es theoretisch durchaus möglich, dass AMD durchaus einen "großen" Chip umsetzt. Der GB202 hat grob 800mm², mit den üblichen Faktoren, dass die Dimensionen pro Achse um 30 % schrumpft. In N3 wären wir bei 400 mm² und 200 mm². ACHTUNG DAS IST EINE VEREINFACHTE RECHNUNG!
N3P und N2 skalieren nicht mehr so gut wie es früher üblich war.

N2 würde mich überraschen selbst 2027.
DevPandi schrieb:
Ein fiktiver AT-0 mit 192 CU könnte also irgendwas zwischen 200 - 400 mm² haben, von der Chipgröße her würde das passen. NUR werden weder 400 mm² noch die 200 mm ² in N3 sowie N2 wirklich günstig. Bei dem, was aktuell an Kosten rumgeistert, wären die Kosten pro Chip ähnlich hoch wie bei N4/4N wie für die GB202. Ist jetzt allerdings nur Überschlagen! Also nicht so ernst nehmen.
Es sind nicht mehr 50 % je Nodes. Bei N3P kommt hinzu dass zwar die Logik noch gut skaliert aber dafür skaliert SRAM nicht. Bei N2 skalieren SRAM und Logik, aber eben nur um 20 bis 25 %.

DevPandi schrieb:
Das Ziel einer RTX 5090 bei "zwei" Fertigungsschritten ist nicht unrealistisch. Ich finde das alles allerdings auch eher utopisch.
Die Frage ist immer wie weit kann die GPU bei Games skalieren. Eine große GPU zu bauen und diese nicht auslasten zu können bringt rein gar nichts.

Wenn wir Mal davon ausgehen dass AMD die fette GPU auslasten kann, gäbe es technisch gesehen keine Hindernisse an die 5090 heranzukommen. Der kritische Punkt ist hier der Preis. Rick Bergmann und David Wang nannten als Obergrenze 1000 USD. Ich halte das für eine realistische Einschätzung.

DevPandi schrieb:
Steht und fällt mit dem Prozess.
Hier ist es ganz entscheidend wann RDNA5 kommt und wie groß die Dies tatsächlich werden.

Das betrifft Waferkosten, Ausbeute und verfügbare Kapazität.

N2 befindet sich noch in der Risk Produktion. CDNA5 verwendet N3P und kein N2 obwohl die einzelnen Chiplets nicht sonderlich groß sind.

AMD blieb bei Zen 5 Classic bei N4P. Nur Zen 5 Dense mit einem hohen Logikanteil ging auf N3E. Zen 6 geht auf N2.

blackiwid schrieb:
Du unterstellst hier also gezielter Betrug, ohne Beweise sagst du damit das es die Leute die ihm diese Informationen geleakt haben nicht gibt, bzw müsste ich bei der einen Info überhaupt schauen unter welchem grade an Sicherheit er es gepostet hat, er hat seine Infos bewusst gekenntzeichnet zwischen sehr "confident" und weniger....
MLID findet ab und zu korrekte Infos. Das Problem ist dass MLID auch falsche Infos findet und sehr viel dazu spekuliert.

Und leider weiß man nie weiß richtig was falsch und was reine Spekulation ist. Die Auszeichnung ist Unsinn.
MLID ist reines Unterhaltungsprogramm.

Nighteye schrieb:
Ich bin dankbar für seinen Channel. Ohne ihn wäre es sehr sehr viel trockener in der Spekulationswelt.
IMO sind die Videos von MLID verschenkte Lebenszeit. Aber es sagt sehr viel über die PC Szene aus das ein Dummschwätzer wie MLID so viele Zuschauer hat. Das verrückte ist dass man bei YouTube so viel findet ...
TilTuesday schrieb:
Wird bei RDNA5/UDNA eigentlich die gleiche Chiplet-Bauweise verwendet wir bei Zen? Das wäre ja eigentlich der nächste logische Schritt.
Bei RDNA3 hatte AMD ein GCD (Grapgic Compute Die )und mehrere MCDs (Memory & Cache Dies).

Alle Leaker gehen davon aus dass AT3 und AT4 auch für Zen 6 APUs verwendet werden.

DIe Shaderengines einer GPU auf mehrere Chiplets zu verteilen, erfordert sehr viele Verbindungen zwischen den Chiplets. Dies ist momentan nur mit Silizium Interposer oder Silizium Brücken umsetzbar. Also wird es nur bei teuren Produkten wie Apple Ultra, ab Blackwell Datacenter und ab MI300 aufwärts eingesetzt. (Die MI250X sind 2 logische GPUs in einem Package)
pipip schrieb:
AMD hat UDNA als die GPU Variante beschrieben, welche RDNA und CDNA wieder verschmelzen soll.
Das trifft es nicht. Es wird nach wie vor Gaming GPUs und Datacenter GPUs geben. Aber diese GPUs werden dasselbe Programiermodell haben.

Die Datacenter GPUs werden keine Fixed Funktion Units für Rastering und Raytracing haben und die Gaming GPUs werden nicht denselben Anteil an Matrixeinheiten haben wie die Data Center GPUs.

pipip schrieb:
Wer sagt überhaupt, dass AT0 eine reine Gaming GPU ist ? Es kann auch eine AI GPU ala Titan Konkurrent sein. Genauso könnte der Vollausbau ein Professioneller Chip und teildeaktive Chips mit nur 384 Bit SI werden Gaming GPUs.
AT0 ergibt als Gaming GPU IMO keinen Sinn.

Die RTX PRO 6000 Blackwell werden zwar auch für AI eingesetzt, aber es gibt auch andere Anwendungen.
AI könnte eventuell funktionieren, bei den anderen Anwendungen wird es für AMD sehr schwer reinzukommen.

Auch die Klientel die die RTX PRO 6000 Blackwell für AI einsetzt ist auf Nvidia geeicht. Da wird es AMD IMO ebenfalls schwer haben Fuß zu fassen.

pipip schrieb:
AMD hat speziell bei RDNA immer das Problem gehabt, nicht genug AI Optimierungen zu haben und deshalb gibt es den Schritt zu UDNA überhaupt. Alle Chips sollen generell mehre Bereiche abdecken, auch die Gaming Chips.
Das ist ein Aspekt. Der wichtigste ist, dass beide GPU-Linien dasselbe Programmiermodell haben und mit ROCm abgestimmt werden.
pipip schrieb:
Reine Gaming Chips ala RDNA sollte mit UDNA nicht mehr geben. So habe ich das verstanden. Ich erwarte auch im Embedded mehr Angebot, da passen dann auch die kleineren Chips hin, sowie die APUs.
Abgesehen vom Problem mit den inkopatiblen GPUs hat sich AMD mit RDNA verzockt
zeedy schrieb:
Hat RDNA4 eigentlich das Dual Issue Design von RDNA3 übernommen?
@DevPandi hat den Referenz Guide zur RDNA 4 ISA verlinkt. Der Abschnitt zu Dual Issue ist identisch zu dem im Referenz Guide zur RDNA 3 ISA
zeedy schrieb:
Zumindest habe ich noch nirgendwo was von einem Frontend oder Shadertakt gelesen.
Das war auch ein Feature der RDNA 3 GPUs mit GCD und MCD.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und N0Thing
ETI1120 schrieb:
MLID findet ab und zu korrekte Infos. Das Problem ist dass MLID auch falsche Infos findet und sehr viel dazu spekuliert.
Vielleicht muss man sich auch das Video an schauen und den Kontext und nicht einfach nur ne Folie wo raus kopieren, im Video geht er meist schon sehr genau ein was seine quellen sind was Hochrechnungen / Spekulationen sind etc.

Wenn man die Folien nimmt und sie so wertet alt hätte er behauptet er weiß jetzt das es genau so kommt oder das alles davon leaks sind... ja dann ist man selbst das Problem.

Und was ist an Unterhaltung schlecht, was ist die Webseite anderes? Zumindest zu nem großen Teil Unterhaltung. "Infotainment".
 
Nighteye schrieb:
Mal wieder Cherry Picking deinerseits QuittproNvidiaQuo
Wieso? Das waren die 3 GPUs die du im RT Effizienz-Index weggelassen hast.
Die 5070 Ti und 5080, sowie die 9070XT.
Nighteye schrieb:
Die RX9070XT ist weit über dem Sweetspot ausgeliefert.
Und deshalb wird sie von dir entfernt.
Sieht einfach nicht so gut aus, die 5070 Ti und 5080, sind zu weit vorne, ergo auch nicht dabei.
Nighteye schrieb:
Computerbase Tests belegen dies.
Da sind es mitunter dann +34%.
Screenshot_2025-09-02-04-10-53-23_40deb401b9ffe8e1df2f1cc5ba480b12.jpg

Also wozu genau 5080, 9070XT und 5070 Ti rausnehmen? Kann man auch noch das bessere DLSS, MFG und oder Pathtracing Effizienz ergänzen um das vollständige Bild zu zeichnen.
Screenshot_2025-09-02-04-16-07-58_40deb401b9ffe8e1df2f1cc5ba480b12.jpg

In der Gesamtschau, die du vermeidest, weil dir Ergebnisse mancher GPus oder Disziplinen nicht passen und sie auch konsequent nicht erwähnt werden, stellt es sich differenzierter dar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro, ElliotAlderson und DaHell63
Quidproquo77 schrieb:
In der Gesamtschau, die du vermeidest, weil dir Ergebnisse mancher GPus oder Disziplinen nicht passen und sie auch konsequent nicht erwähnt werden, stellt es sich differenzierter dar.
Ist ja mit seinem 80% Post (#223) nicht anders. Das einzige Spiel genommen in dem 80% PT schneller als stock sind.
Die anderen 3 mitgetesteten Spiele werden nicht gezeigt.
1.jpg
2.jpg3.jpg4.jpg
https://www.computerbase.de/artikel...t-test-undervolting-powertarget.91939/seite-2

Edit:
Ich frage mich, ob er echt alle andren für so blöde ansieht um sein Geschwurbel nicht zu durchschauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheInvisible und Pro_Bro
DaHell63 schrieb:
Ich frage mich, ob er echt alle andren für so blöde ansieht um sein Geschwurbel nicht zu durchschauen.
Nein, aber er erhofft sich dadurch ein paar ahnungslose, die seine Aussagen nicht hinterfragen, zu AMD zu bekehren.
Der Größte Knaller ist eh seine SC Vergleiche. AMD Karte in 1080p mit AFMF (oft sogar im CPU Limit) gegen Nvidia ohne Framegeneration in 4K (im GPU Limit) :D
 
  • Gefällt mir
Reaktionen: Pro_Bro, Nighteye, TheInvisible und eine weitere Person
Quidproquo77 schrieb:
Weils mir pur um die Technik von RDNA geht.
Und die ist nachweißlich weit über dem Sweetspot bei der XT ausgeliefert.
Anders als bei Nvidia.
Das habe ich auch begründet. Aber dieses sich Dumm stellen und so tun als ob man nicht wüsste was ich meine, ist eine gute Taktik um zu versuchen meinen Kontext zu umgehen, das muss man dir lassen :daumen:
DaHell63 schrieb:
Die anderen 3 mitgetesteten Spiele werden nicht gezeigt.
Ich frage mich, ob er echt alle andren für so blöde ansieht um sein Geschwurbel nicht zu durchschauen.
Mein Tenor gestern war, die Karte wird mit 80% Powertarget bereits ohne Undervolting sehr viel effizienter.
Sehr viel mehr als bei Geforce RTX 5080. Richtig ?
Und jetzt schauen wir uns mal die anderen 3 Spiele an.
Cyberpunk Percentil fps 5% weniger bei ca 1/4 weniger Leistungsaufnahme = Effizienz Gewinn.
Doom Percentil fps 4% weniger bei ca 1/4 weniger Leistungsaufnahme = Effizienzgewinn.
Final Fantasy Percentil fps 1% weniger bei ca 1/4 weniger Leistungsaufnahme = Effizienzgewinn.
Auch die Average FPS waren kaum anders. Also die FPS hätten auch um 1/4 abnehmen müssen, damit wir von keinem Effizienz gewinn durch das Reduzieren des Powertargets sprechen müssten.

Und das weißt du ganz genau. In Mathe bist du sehr gut genau wie die anderen hier.
Daher verstehe ich nicht diese Manipulative Fehldeutung die mir sehr absichtlich erscheint.
Mein Kontext von Gestern steht unangefochten laut den puren Zahlen.
ElliotAlderson schrieb:
AMD Karte in 1080p mit AFMF (oft sogar im CPU Limit) gegen Nvidia ohne Framegeneration in 4K (im GPU Limit) :D
Die AMD Karte war sogar in 720p nativ, dazu noch 50% Upscaling :D Anders wäre ich nie auf die 652fps in Star Citizen gekommen :D
 
  • Gefällt mir
Reaktionen: SweetOhm
ElliotAlderson schrieb:
Und dann wunderst du dich, dass ne 4090 in nativem 4K ohne FG langsamer ist?
Nein ich bin da ganz auf deiner Seite.
Das war nur Stichelei damals, in erster Linie weil damals Nvidia kein Smooth Motion hatte und das Spiel halt bei jedem im CPU limit war.
Seit Smooth Motion ist RTX 4000 richtig geil geworden und eindeutig überlegen in allen belangen.
Aber back 2 topic :)
 
Zurück
Oben