Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

Warum testet man bei solchen Karten nicht das Undervolting-Potential? Dieser Test ist doch totaler Quatsch. Wen interessiert bei der schon heftigen Standard-Leistungsaufnahme wieviel noch extra verbraten werden kann? (Zumindest wer seinen Strom selbst bezahlt.)
 
  • Gefällt mir
Reaktionen: whtjimbo und DerRico
Erinnert mich an die 6800/xt 6900... Generation. Hier hat AMD auch ca. ein halbes Jahr gebraucht bis die Karten anständig liefen. Auch die Performance nahm ordentlich zu. Erinnere mich noch an Destiny 2 oder Crysis 3. Das lief nicht und die Karte konnte nicht richtig ausgelastet werden...

Die Frage ist ob es mit der 7900er Generation auch wieder so werden wird. Man wird sehen ob sie diesmal auch die Bremse lösen können... Das mit der kürzeren Pipline gefällt mir zumindest nicht so....
 
  • Gefällt mir
Reaktionen: Pro_Bro
IXI_HADES_IXI schrieb:
Erinnert mich an die 6800/xt 6900... Generation. Hier hat AMD auch ca. ein halbes Jahr gebraucht bis die Karten anständig liefen. Auch die Performance nahm ordentlich zu. Erinnere mich noch an Destiny 2 oder Crysis 3. Das lief nicht und die Karte konnte nicht richtig ausgelastet werden...

Eh die 6000 Serie lief von Anfang an sehr gut, natürlich hat man mit treiber etwas Performance raus geholt, aber anständig liefen sie am Anfang schon
 
  • Gefällt mir
Reaktionen: DerRico
Nein tat sie nicht. Destiny 2 oder Crysis 3 waren unspielbar. Microruckler Probleme zum Beispiel... Keine 100%ige Auslastung usw... Ich hatte eine 6800 von Anfang an. Im HW Luxx Forum wurden dann zum Beispiel im Timespy gleich mal über 1000 Gpu Punkte und mehr raus geholt nur durch den Treiber. War da von Anfang an selbst dabei...
Bei der neuen Generation scheinen auch wieder ein paar Games unspielbar zu sein. Gardians of the Galaxy zum Beispiel.

Beispiel

Ab dem 21.6.1 gings stets Berg auf mit der Performance und Problembeseitigung...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro
rocka81 schrieb:
Na mal abwarten ob AMD das Problem vielleicht doch noch über Treiber hinbekommt.
Ich persönlich glaube da nicht dran. Klar, die üblichen paar Prozent die es auch sonst immer gab. Aber mehr auch nicht.

Mein Bauchgefühl sagt mir es gibt ein Problem mit der Hardware. Ob es ein Designproblem oder -fehler ist möchte ich gar nicht beurteilen. Aber wenn das nur am Treiber liegen würde und man damit zweistellige Zugewinne verbuchen könnte, dann hätte AMD alles daran getan diesen Teil des Treibers im Vorfeld hinzubekommen.

Und ich bleibe dabei, Nvidia wusste nichts genaues, ahnte aber um das Potential von Navi 31. Sie sind dann auf Nummer sicher gegangen und haben die 4090 entwickelt. Das AMD die Leistung nicht auf die Straße bekommt und sie so weit vorne liegen war eine Überraschung - wohl für alle.

Ich halte es durchaus für möglich, dass es später eine überarbeitete Version/neues Stepping gibt. Denke aber das diese Probleme erst mit der nächsten Generation angegangen bzw. final gelöst werden.
 
Keine Überraschung. Die 4090 und 4080 waren von Nvidia mit einem viel höheren Stromverbrauch geplant. TSMC zum Dank ist das nicht notwendig. AMD musste bei der starken Performance der 4000er Karten sicherlich bis fast an die Kotzgrenze der 7000er Karten gehen.
Dann ist logisch, dass bei den 7000er Karten fast nichts mehr drin ist, und bei den 4000er noch einiges geht.
 
  • Gefällt mir
Reaktionen: JahJah192
paul.muad.dib schrieb:
Ganz im Gegenteil, ein extrem spannender Artikel den ich mit mehr Interesse als den eigentlichen Testbericht gelesen habe.

So gehen die Meinungen auseinander.
Wo sollen sie denn auseinander gehen? Ich hab ihn doch eindeutig auch als interessant bezeichnet?
 
Man sieht auch hier, dass der andere Weg deutlich sinnvoller ist. Meine 4080 läuft mit max. 250 Watt TDP bei 4-5% weniger Leistung. Noch nie so eine angenehme Karte im System gehabt. Dazu Power bis zum Abwinken. 500 Frames in Valorant in FullHD läuft die 4080 einfach passiv ohne Lüfter. A Plage Tale 4k, Ultra, Raytracing, DLSS3, 100 Frames+ und die Grafikkarte bleibt super leise und kühl.
 
  • Gefällt mir
Reaktionen: JahJah192 und MasterXTC
.Snoopy. schrieb:
Dann ist logisch, dass bei den 7000er Karten fast nichts mehr drin ist, und bei den 4000er noch einiges geht.
Der Artikel zeigt genau das Gegenteil - die ADs treffen ihre Entwicklungsmaßgaben, Navi 31 landet wegen der von AMD auferlegten Leistungsaufnahmsgrenzen weit davon entfernt.
Ergänzung ()

Wolfgang schrieb:
Eigentlich geht es in dem Artikel darum, RDNA 3 etwas besser zu verstehen und zu analysieren, was mit den Taktraten los ist und machbar ist.
Andere haben es glaube ich schon angesprochen, die Ergebnisse der Rechenaufgaben wären in diesem Zusammenhang interessant gewesen. (und für den Vergleich der Architekturen auch Ergebnisse bei identischen Leistungsaufnahme)
 
UV > OC

Ist seit Vega (56, 64 und Radeon VII) offensichtlich. Wird aber unterschätzt.

OC macht höchstens beim Speicher Sinn.
 
  • Gefällt mir
Reaktionen: Zitterrochen und McTheRipper
incurable schrieb:
Sicherlich akademisch interessant, aber bei den Verbrauchsdaten und daraus resultierender schlechterer Effizienz in meinen Augen nichts für den Alltag.
Also ich finde das Thema durchaus Interessant, auch für den Alltag.
Ist schon beeindruckend, was RTX4000 so kann.
Bin ja massiv geschockt, wusste gar nicht, dass es so all-open 7900XTX Modelle gibt und die dann dennoch mies performen für den vielen Strom....
Ich will gar nicht wissen wie das Teil bei 500W vor sich hinglüht... die Kühler sind ja auch alle schlechter wie bei einer 4090.... und wenn man bedenkt, dass eine 4080 max. 350W frisst und eine 7900XTX am Limit 450-500 und selbst eine OC 4090 diese Werte nicht so einfach erreicht.... traurig... naja so ist es eben... RDNA3 ist richtig in die Hose gegangen würde ich sagen (zumindest was diesen Aspekt angeht).
 
  • Gefällt mir
Reaktionen: Ayo34
kiffmet schrieb:
Die zusätzlichen Vec32 Einheiten sind extrem limitiert. Es gibt viele Rahmenbedingungen, die erfüllt werden müssen, damit diese eingesetzt werden können, z.B. betreffend der nutzbaren Anzahl an Quell-, Ziel- und Operandenregistern. Momentan lässt sich da nicht viel mehr, als FMA (A*B + shared_const bzw. A*shared_const + B) beschleunigen, und das dann auch nur, wenn sich eben beide Vec32 Blöcke dieselbe Konstante teilen. Das RDNA3 Whitepaper ist diesbezüglich sehr aufschlussreich.

Bezüglich Blender/OpenCL werden die zusätzlichen Einheiten auf Windows noch nicht genutzt. Zum Launch gabs außerdem nur OpenCL 1.x - das spricht stark für einen unfertigen Treiber bzw. Compiler.

Generell scheint RDNA3 viel stärker auf softwareseitige Optimierungen angewiesen zu sein. Es war beispielsweise üblich, dass AMDs Grafikhardware automatisch eine andere Wave bearbeitet, wenn die derzeit ausgeführte ins Stalling kommt. Der Compiler muss dies jetzt voraussehen, und manuell eine entsprechende Instruktion emittieren. Das war ein Tradeoff, um eine höhere ALU-Dichte am GCD zu erreichen.

Errata gibts auch genug (siehe Whitepaper und Mesa gitlab); Manche Instruktionen liefern falsche Ergebnisse, wenn diese innerhalb von X Takten nach bestimmten, vorherigen Instr. ausgeführt werden, oder kein Synchronisierungs, Warte- oder Cache-Flush Befehl eingeschoben wird. Das erzeugt Pipeline Bubbles und Leerlauf.

Die Raytracing Verbesserungen, wie "early Subtree Culling", oder das Benötigen von weniger Instruktionen für BHV Traversal müssen ebenfalls durch die Nutzung anderer HW Funktionalität via Compiler angestoßen werden (z.B. via ds_bhv_stack_rtn)…

Fixed function Geometriepipeline gibt es auch keine mehr. Das läuft jetzt alles über die Shader via NGG - auch hier wird eine Heuristik benötigt, die den Betriebsmodus festlegt (NGG Culling ja/nein, welche Form des Cullings, Nutzung von Streamout ja/nein, …)

IPC Tests unter Linux (sowohl für 3D, als auch Compute) wären interessant - der Treiber lässt einen dort CUs deaktivieren; so könnte man einen relativ genauen CU für CU Vergleich ggü. RDNA2 anstellen. Dass im worst-case die 7900XTX gerade mal 5%-10% schneller ist, als eine 6900XT/6950XT (trotz 20% mehr CUs!), zeigt, dass es hier interessante Funde geben könnte.

Ich gehe auch davon aus, dass AMD mit RDNA4 einen neuen Commandprozessor benötigen wird. Dass dieser durchwegs höher takten muss, als die Shader, lässt darauf schließen, dass dieser manchmal mit der Arbeitsverteilung nicht hinterher kommt. Das Delta scheint größer zu werden, je höher der Shadertakt ist, beträgt es bei 2,3GHz auf den Shadern nur +200Mhz: In dem von GerryB eingebetteten Video sind fast 3,8GHz am Commandproc. bei ca. 3-3,1GHz auf den Shadern angeführt…

Also ein bisschen Sorgen mache ich mir schon bezüglich dieser Entwicklungen. Compilerkomplexität war das, was letztlich zum Tod von AMDs VLIW Architektur (und Intels Itanum) geführt hatte. Der hohe Stromverbrauch erinnert ein bisschen an GCN, ist aber wenigstens diesmal von einem hohen Takt begleitet, was nebenbei fast schon ein bisschen Pentium 4 Vibes aufkommen lässt
kiffmet schrieb:
Die zusätzlichen Vec32 Einheiten sind extrem limitiert. Es gibt viele Rahmenbedingungen, die erfüllt werden müssen, damit diese eingesetzt werden können, z.B. betreffend der nutzbaren Anzahl an Quell-, Ziel- und Operandenregistern. Momentan lässt sich da nicht viel mehr, als FMA (A*B + shared_const bzw. A*shared_const + B) beschleunigen, und das dann auch nur, wenn sich eben beide Vec32 Blöcke dieselbe Konstante teilen. Das RDNA3 Whitepaper ist diesbezüglich sehr aufschlussreich.

Bezüglich Blender/OpenCL werden die zusätzlichen Einheiten auf Windows noch nicht genutzt. Zum Launch gabs außerdem nur OpenCL 1.x - das spricht stark für einen unfertigen Treiber bzw. Compiler.

Generell scheint RDNA3 viel stärker auf softwareseitige Optimierungen angewiesen zu sein. Es war beispielsweise üblich, dass AMDs Grafikhardware automatisch eine andere Wave bearbeitet, wenn die derzeit ausgeführte ins Stalling kommt. Der Compiler muss dies jetzt voraussehen, und manuell eine entsprechende Instruktion emittieren. Das war ein Tradeoff, um eine höhere ALU-Dichte am GCD zu erreichen.

Errata gibts auch genug (siehe Whitepaper und Mesa gitlab); Manche Instruktionen liefern falsche Ergebnisse, wenn diese innerhalb von X Takten nach bestimmten, vorherigen Instr. ausgeführt werden, oder kein Synchronisierungs, Warte- oder Cache-Flush Befehl eingeschoben wird. Das erzeugt Pipeline Bubbles und Leerlauf.

Die Raytracing Verbesserungen, wie "early Subtree Culling", oder das Benötigen von weniger Instruktionen für BHV Traversal müssen ebenfalls durch die Nutzung anderer HW Funktionalität via Compiler angestoßen werden (z.B. via ds_bhv_stack_rtn)…

Fixed function Geometriepipeline gibt es auch keine mehr. Das läuft jetzt alles über die Shader via NGG - auch hier wird eine Heuristik benötigt, die den Betriebsmodus festlegt (NGG Culling ja/nein, welche Form des Cullings, Nutzung von Streamout ja/nein, …)

IPC Tests unter Linux (sowohl für 3D, als auch Compute) wären interessant - der Treiber lässt einen dort CUs deaktivieren; so könnte man einen relativ genauen CU für CU Vergleich ggü. RDNA2 anstellen. Dass im worst-case die 7900XTX gerade mal 5%-10% schneller ist, als eine 6900XT/6950XT (trotz 20% mehr CUs!), zeigt, dass es hier interessante Funde geben könnte.

Ich gehe auch davon aus, dass AMD mit RDNA4 einen neuen Commandprozessor benötigen wird. Dass dieser durchwegs höher takten muss, als die Shader, lässt darauf schließen, dass dieser manchmal mit der Arbeitsverteilung nicht hinterher kommt. Das Delta scheint größer zu werden, je höher der Shadertakt ist, beträgt es bei 2,3GHz auf den Shadern nur +200Mhz: In dem von GerryB eingebetteten Video sind fast 3,8GHz am Commandproc. bei ca. 3-3,1GHz auf den Shadern angeführt…

Also ein bisschen Sorgen mache ich mir schon bezüglich dieser Entwicklungen. Compilerkomplexität war das, was letztlich zum Tod von AMDs VLIW Architektur (und Intels Itanum) geführt hatte. Der hohe Stromverbrauch erinnert ein bisschen an GCN, ist aber wenigstens diesmal von einem hohen Takt begleitet, was nebenbei fast schon ein bisschen Pentium 4 Vibes aufkommen lässt :p
Das ist alles seltsam, manche berichten auch dass das Frontend 3,8 GHz taktet, während die CUs bei 2,5 GHz rumtrödeln. Auch das untenstehende Bild ist merkwürdig, mesh shader gehen bei RDNA nicht über die DX12 Standartaufrufe und auch die MultiDrawIndirect Werte die AMD auf Folien mit 2,3x Performance anpreist, werden nicht erreicht.

3079440B-2087-4806-958E-EED4428B7926.jpeg

Quelle: https://www.club386.com/amd-radeon-rx-7900-xtx-review-rise-of-the-chiplets/
0E45CD9D-41AA-4FF6-9BA0-A3454F138076.jpeg
 

Anhänge

  • 78D7E07F-9466-4B90-893A-F7CF14D8B483.jpeg
    78D7E07F-9466-4B90-893A-F7CF14D8B483.jpeg
    48,4 KB · Aufrufe: 106
  • 4CCD8F74-2E1A-4198-9EB6-BE918A81133E.jpeg
    4CCD8F74-2E1A-4198-9EB6-BE918A81133E.jpeg
    59,2 KB · Aufrufe: 107
  • Gefällt mir
Reaktionen: MrHeisenberg, Cruentatus, Zer0Strat und eine weitere Person
ampre schrieb:
Das ist alles seltsam, manche berichten auch dass das Frontend 3,8 GHz taktet, während die CUs bei 2,5 GHz rumtrödeln. Auch das untenstehende Bild ist merkwürdig, mesh shader gehen bei RDNA nicht über die DX12 Standartaufrufe und auch die MultiDrawIndirect Werte die AMD auf Folien mit 2,3x Performance anpreist, werden nicht erreicht.
Ich bin da jetzt nicht so tief drin, aber kann es sein, dass AMD einfach überschätzt hat, wie scheiße vieles einfach programmiert ist?
Das hört sich ja eher alles so an, als ob nur Games damit Probleme haben, wenn man sich das hier im Test so anschaut sind die harten Benches ja hochgetaktet gelaufen und liefern bombastisch ab.
Da frag ich mich was falsch gelaufen ist.
Hört sich für mich alles unausgereift oder unfertig im Treiber an, aber da bin ich in der Softwareschiene nicht so tief drin.
Ich würde es ja feiern und auch AMD wünschen, wenn die das gefixed bekommen.
Bei >3Ghz Takt und ggf. PL auf 400W bei vielen Customs und die 7900XTX enteilt der 4080 noch sehr gut und landet dann gut zwischendrin im Lineup von NV, was super wäre!
 
DevPandi schrieb:

Code:
S_00B404_INST_PREF_SIZE(si_get_shader_prefetch_size(shader)) | S_00B404_CU_EN(0xffff),

Und dann stellt man fest, dass da eine "ODER"-Verknüpfung ist. Geht man dann etwas vor und zurück, stellt man sogar fest, dass die Funktion erst mit RDNA 3 genutzt wird und dass hier noch ein Wert gegeben wird, der, sofern die eine Funktion 0 zurück gibt, eben der andere Wert genutzt wird.
Obwohl du mit deiner Behauptung, dass der Shader Prefetch funktioniert recht hast, ist deine Argumentation hier falsch.

Es handelt sich hier um den Bitwise OR Operator. Somit wird der Rückgabewert der si_get_shader_prefetch_size(…)
Funktion bitweise mit dem Rückgabewert der S_00B404_CU_EN(…) Funktion verknüpft.
Finde gerade auf Anhieb nicht was die S_00B404_CU_EN(…) Funktion macht - Falls es nur ein Datentyp Wrapper ist (scheint ja Präprozessor zu sein) - dann wird der Rückgabewert mit 0xFFFF verknüpft - was also 0xFFFF ergibt (für alle die immer noch meinen das sei 0 - nein).

Aber danke für die klare, mit Quellen belegte Argumentation. Da sollten sich gewisse Leute eine Scheibe davon abschneiden.

Irgendwelchen selbsternannten Hardware Twitter „Insidern“ mit gefährlichem Halbwissen - denn von da kommen nämlich diese Shader Prefetch Gerüchte - sollte man nicht immer glauben.
 
  • Gefällt mir
Reaktionen: Rockstar85, Hate01 und HierGibtsNichts
IXI_HADES_IXI schrieb:
Erinnere mich noch an Destiny 2 oder Crysis 3. Das lief nicht und die Karte konnte nicht richtig ausgelastet werden...
Man muss aber auch sagen das Destiny 2 grundsätzlich und seit Release auf AMD Karten schlechter und auf Nvidia Modellen besser performt. Auf hat die Destiny 2 Engine viele technische eigenheiten und läuft bis heute nicht 100% rund was aber am Spiel selbst und dessen Engine liegt.
Warum Destiny 2 nach deiner Aussage nach 6 Monaten besser lief ist weil mit dem 21.6.1 ein Bug behoben wurde der die Leistung minderte.
Dieser Bug entstand aber tatsächlich aufgrund von Änderungen an der Engine seitens Bungie zur Erweiterung Beyond Light, die haben diese Änderungen nicht ausreichend getestet mit AMD Hardware. Das kam ja im Nachhinein raus.
Destiny hat aber bis heute des öfteren Probleme mit FPS Drops, Stuttering usw. bei Nvidia und AMD GPUs, es liegt hier schlicht am Spiel bzw. am technischen Zustand der Engine.
Ergänzung ()

Es ist für mich ist es nicht nachvollziehbar wiso Einige ständig hier damit um sich werfen RDNA3 sei ein kompletter Fail.
Vereinfacht und heruntergebrochen, ja die Konkurrenz ist effizienter und hat eine bessere GPU im Portfolio.
Trotzdem halte ich es für äußerst schwierig deshalb aus technischer Sicht zu behaupten, die gesamte RDNA3 Architektur sei ein kompletter Fail. Und ja, mir ist durchaus bewusst das die Karten derzeit noch ihre "Baustellen" haben. Trotzdem ist man sehr weit davon entfernt eine grundlegend schlechte und fehldesignte Architektur vor sich zu haben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DerRico und Javeran
Ist zwar schön das ihr mal OC test macht aber paar gründe warum das kaum bis keine Sinn macht
ada läuft am limit (~1,1-1,12v)
rdna3 nicht

Zu rdna3 sei gesagt das amd selbst bestätigt hat das die alu nicht voll ausgelastet werden können und das an der latenz liegt zwischen interposer und gcd
Das ist ein Fertigungsproblem und sollte beim nächsten revesion der chips beseitigt werden.
Am n5 node liegt es nicht diese erreichen wie von euch getestet über 3,5ghz
das problem liegt am Datentransfer lass es ein Material Problem sein

Nun gut zu der aktuellen Ausführbarkeit der alu kommen
Folgend können die fp32 2 Operationen gehen nativ bei den 6144 alu dazu kommt eine Latenz die mit aktuellen treibern etwa 17% von den 2 übrigen Operationen ausführen können macht in fakt 2,34 Operationen (rdna3 kann 4 Operationen pro alu nativ wenn monolithisch wäre und wenn 2 datenpfade vorhanden wäre es ist aber ein Pfad da also 3 Operationen im Idealzustand)
Das liegt an wartezyklen daran kann amd nix ändern

Und je höher die gpu Taktet desto länger warten die alu auf daten quasi sinkt sogar die Auslastung der alu
Darum bringt oc bei amd rdna3 n31 derzeit nix, das maxed sind wirklich die 2,6ghz alles darüber sinkt die Effizienz und die Auslastung.
ich behaupte sogar das man mit 2,4ghz das optimum hat. Und mehr als das zu mehr Stromverbrauch kommt.
dazu kommt die Effizienzeinbußen in 2d last
Das liegt quasi an dem mcd Modulen die nicht in der spannung reduziert werden können.
Das ist auch nur bedingt mit Treibern zu fixen geht also davon aus das man dies nur mit reduzierung des kerntaktes reduzieren kann.
Quasi muss die gpu in idle auf festgesetzte 400mhz gehalten werden beim vram takt. bedingt aber das die hardware beschleunigung bei Medienwiedergabe deaktiviert werden muss.

mein Fazit dazu in idle kann rdna3 gar nicht besser werden außer man nimmt 50-100w als norm an.
Umgehen lässt sich das nur mit externen codec chips auf der gpu also wieder hardware Lösung

hat also amd hier sich verplant?
Ich sag mal so, es war sicher nicht geplant das die mcd eine feste spannung benötigen um stabil zu laufen
Und es war sicher nicht geplant das der interposer so lahm ist.
Kurz die rx7900 xt(x) läuft nur in der stock konfig mit reduzierter spannung optimal.
ich würde dies mit klaren rma zurückrufen. Und auf eine neue Revesion bei der Fertigung setzen
Das 2d Effizienz Desaster lässt sich nur mit einen neu design der sku lösen.

Mittels Treibern sehe ich da ne chance bessere Auslastung zu erreichen maxed wären 25% also am ende 2,5
Eine refresh mit 3 operationen wie geplant sollte in q2 2023 kommen zeitgleich mit n32 und n33 release.
Wie amd die dann nennt ist offen.
Es macht quasi keine Sinn uv und oc zu verbinden, man muss die Taktraten sogar senken was dagegen hilft ist den vram Takt zu erhöhen und spannung.
Und dann die Waage bei maxed 1,1v und nur 2,4ghz zu halten während man beim vram auf min 24gbps -25gbps geht
Im idle lässt sich da nur eins machen die hardware Beschleunigung deaktivieren in browser oder andere software.
GPu Planung ebenso. beim OS

Das ist wieder so ein amd typischer release in Theorie gut in praxis deutliche Fehler beim design
das liegt primär an der Fertigung sekundär am Treiber.

nvidia kann quasi die preise diktieren, dabei war rdna2 recht solide kaum bis keine Fehler bei release, was ist passiert?
Man hat Fertigung neue arch und Treiber zeitgleich gemacht das ist Anhand amd Historie nie gut gegangen siehe Hd2000, gcn1, fiji, polaris, vega und rnda.
Alles neue arch die mit neuer Fertigung und oder neuen feature Probleme beim start hatten.

Oc bei nvidia bringt quasi nix weil ada am limit operiert (~1,1v bei 2,8ghz)
Einzig der ad102 kann vom höheren vram Takt profitieren weil die Speicherbandbreite fehlt in 4k aber das cpu limit verhindert das man es nutzen kann.

Die Test mit amd 7800x3d werden interessant. Dies sollte das cpu limit teils aufheben in games.

Insgesamt ist anzumerkend as OC bei gpu seit 2012 Geschichte sind
nvidia hat klare grenzen das underclocking also gesenktes powerlimit mehr bringt als oc.

Die mär vom reduzierter spannung bei gleichen Takt meist amd Nutzer kann getrost mit instabiler betrieb zugeschrieben werden.
Lediglich reduzierte PL und reduzierter Takt bringt zum Erfolg warum sollte man das tun außer es gibt Probleme mit der sku. (wärme und Bildfehler)
Was für mich klares rma bedeuten würde.
 
Dark Soul schrieb:
dann wird der Rückgabewert mit 0xFFFF verknüpft

Ähm …

DevPandi schrieb:
Und dann stellt man fest, dass da eine "ODER"-Verknüpfung ist.
Danke für die Erklärung an der Stelle, aber ich habe bereits geschrieben, dass hier eine ODER-Verknüpfung als Operator genutzt wird.

Natürlich ist die Aussage hier etwas "lapidar":
DevPandi schrieb:
sofern die eine Funktion 0 zurück gibt, eben der andere Wert genutzt wird.
Entspricht aber am Ende genau dem, was du hier ja selbst dann schreibst:
Dark Soul schrieb:
dann wird der Rückgabewert mit 0xFFFF verknüpft - was also 0xFFFF ergibt (für alle die immer noch meinen das sei 0 - nein).
Stark vereinfacht - jetzt mal den Hexadezimalen-Code weggelassen, steht an der ersten Stelle 0b0 | 0b1111111111111111 und das ergibt am Ende eben 0b1111111111111111

Für die anderen beiden Code-Stellen stimmt es am Ende aber "wieder" nicht, was ich geschrieben hatte, da ja da die Werte "anders" sind und daher da auch andere Werte herauskommen. Aber auch da hat der Wert 0 aus der Funktion keinen weiteren Einfluss auf das Prefetching, sondern die anderen beiden Werte bestimmen den finalen Wert, denn 0 | 1 = 1.
 
Wie ist denn eigentlich die Abhängigkeit des Taktes von der Leistungsaufnahme?

Man sieht ja (nicht in den Blender Tests), dass die AMDs wesentlich heftigere Schwankungen haben im Takt, aber bei der Leistungsaufnahme wirkt sich sich das gegenteilig zum Verhalten der NVs aus. Diese halten ja eher gleichmäßig den Tank (in Blender wiederum sehr gut zu sehen), aber haben eine wesentlich höhere Dynamik in der Leistungsaufnahme.

Wie ist das zu erklären?
 
syfsyn schrieb:
Zu rdna3 sei gesagt das amd selbst bestätigt hat das die alu nicht voll ausgelastet werden können
Haben sie das? Wo steht das denn?

syfsyn schrieb:
und das an der latenz liegt zwischen interposer und gcd
Was für ein Design-/Hardwareproblem spricht. Würde das gerne mal rein interessehalber nachlesen

syfsyn schrieb:
Das ist ein Fertigungsproblem und sollte beim nächsten revesion der chips beseitigt werden.
syfsyn schrieb:
das problem liegt am Datentransfer lass es ein Material Problem sein
Vielleicht ist das ein Übersetzungsfehler, aber warum sollte ein Materialfehler für einen langsameren Datentransfer/höhere Latenz sorgen? Designfehler passt eher.

syfsyn schrieb:
Das liegt an wartezyklen daran kann amd nix ändern
syfsyn schrieb:
Und je höher die gpu Taktet desto länger warten die alu auf daten quasi sinkt sogar die Auslastung der alu
Das wäre durchaus logisch, wenn dort ein Flaschenhals existiert.

syfsyn schrieb:
dazu kommt die Effizienzeinbußen in 2d last
Das liegt quasi an dem mcd Modulen die nicht in der spannung reduziert werden können.
syfsyn schrieb:
Das ist auch nur bedingt mit Treibern zu fixen geht
Klingt durchaus logisch und interessant. Quelle? 😀

syfsyn schrieb:
Eine refresh mit 3 operationen wie geplant sollte in q2 2023 kommen zeitgleich mit n32 und n33 release.
Wie amd die dann nennt ist offen.
syfsyn schrieb:
OS

Das ist wieder so ein amd typischer release in Theorie gut in praxis deutliche Fehler beim design
das liegt primär an der Fertigung sekundär am Treiber.
Nun ja es deutet sich an, dass da etwas kommt.

AMD kann die nächsten zwei Jahre mit RDNA3 in diesem Zustand nicht warten. Navi31 ist im Vollausbau während Nvidia mit AD102 dies nicht ist und noch eine ordentliche Schippe oben drauf packen kann.

Die Frage ist nur wie will AMD mit einer „verbesserten“ Revision starten? Dann wären ja faktisch alle alten 7900 XT(X) als fehlerhaft gebrandmarkt. Erst recht wenn die neue Revision dann ordentlich an Leistung zulegen würde. Wer will dann noch eine (gebrauchte) 7900 XT(X)!?
 
  • Gefällt mir
Reaktionen: incurable
TheUngrateful schrieb:
Also nichts was sich "mal eben" für die später erscheinende Mid und Low end Karten beheben lässt?
Darauf hoffe ich. Topmodell überzüchtet und normale Karten und APU gut?
Ergänzung ()

b|ank0r schrieb:
Die Frage ist nur wie will AMD mit einer „verbesserten“ Revision starten? Dann wären ja faktisch alle alten 7900 XT(X) als fehlerhaft gebrandmarkt. Erst recht wenn die neue Revision dann ordentlich an Leistung zulegen würde. Wer will dann noch eine (gebrauchte) 7900 XT(X)!?
Das wäre das geringste Problem? Dafür gibt es Modellbezeichnungen. Sprich - sogar absichtliche Brandmarkung.
 
Zuletzt bearbeitet:
Zurück
Oben