Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
RDNA4 wird auf lange Sicht genauso abstinken wie RDNA3, da RDNA 4 einfach einige Hardwareimplementierungen fehlen die Nvidia bereits mit Ada Lovelace vor knapp 3 Jahren schon hatte.
Wer auf das Wert legt kauft keine Radeon, sondern gibt etwas mehr Geld aus.
Schnellere "AI Accelerators" im Allgemeinen, Opacity Micromaps bzw. SER in HW, leistungsfähigere HW für Cooperative Vectors in den TC´s (Directx12), während AMD das über WMMA Instructionen löst.
Das ganze erlaubt kleine neuronale Netzwerke in Spielen zu nutzen um sie für Texture filtering, neural materials, texture compression, charakter rendering, mega geometry usw usf. zu benutzen.
Die Renderpipline wird Stück für Stück von rasterbasierten Ansätzen befreit und dafür ist RDNA4 eben nicht wirkllich fit bzw. RDNA 3 gar nicht zu gebrauchen.
Wovon wahrscheinlich auch nur wieder die schnellsten Grafikchips profitieren werden, siehe Pathtracing.
Für Otto-Normal-Verbraucher spielt es kaum eine Rolle, sieht man auch an den Verkaufszahlen von den gepushten spielen (Control, Alan Wake 2, Star Wars:Outlaws, Indiana Jones).
Das einzige Spiel, welches sich gut verkauft hat, ist Cyberpunk.
Was ist jetzt dein Gegenargument außer Whataboutism? Was haben Spiele-Verkaufszahlen damit zu tun?
Man kann außerdem doch heute schon entsprechende Demos wie Zorah auf Mittelklassehardware die diese Dinge nutzen völlig flüssig ausführen. Vor ein paar Tagen zog neural rendering in die UE5 ein. Vor allem eher langsamere Chips werden profitieren da Ressourcen geschont werden. https://www.pcgameshardware.de/Unre...301/News/Nvidia-RTX-Neural-Rendering-1474209/
Was hat eine auf speziell einen Prozessor/Grafikkarte abgestimmte Demo mit eventuell kommenden Spielen zutun, die in eventuell zwei Jahren erscheinen werden.
Die Demo läuft auf einer RTX 5090 und da laufen keine NPCs rum.
Es ist eine Marketing-Demo, sonst nichts.
Wo sind denn deine Fakten, die das Gegenteil da legen?
Wie hier schon angesprochen, für reine Rasterisierung ist die 9070/XT ok.
Für Ray Tracing, Grafiktechniken und kreative Anwendungen, insbesondere jene die auf KI basieren ist die Nvidia besser.
Belege dafür kannst du dann deine Sekretärin recherchieren lassen.
Falls du den Thread gelesen hast, ging es hier um meine Aussage, dass Blackwell die modernere Architektur hat und ich habe hier auf die Frage von Dennis geantwortet.
Warum du da jetzt reingrätscht, entzieht sich meiner Kenntnis. Alles andere wurde hier schon ausführlich besprochen.
Wenn du was zum Thema beizutragen hast, dann mach das gern, ansonsten spar dir deinen Post.
Hier wurde auf eine Zwischenfrage geantwortet, an sich ist das Thema auch schon durch.
Warum du hier nun 2x einen Post abgesetzt hast, wovon keiner etwas zum Thema beigetragen hat und somit eine Diskussion anregst, die laut deiner Aussage vermieden werden soll, kannst du aber gern erklären.