Upgrade für Gaming

Fighter1993 schrieb:
Kla hat RDNA4 massiv aufgeholt aber wenn die Belastung steigt hat NVIDIA halt noch Reserven.
RDNA4 wird auf lange Sicht genauso abstinken wie RDNA3, da RDNA 4 einfach einige Hardwareimplementierungen fehlen die Nvidia bereits mit Ada Lovelace vor knapp 3 Jahren schon hatte.
Wer auf das Wert legt kauft keine Radeon, sondern gibt etwas mehr Geld aus.
 
Quidproquo77 schrieb:
da RDNA 4 einfach einige Hardwareimplementierungen fehlen die Nvidia bereits mit Ada Lovelace vor knapp 3 Jahren schon hatte.
Die da wären?
 
  • Gefällt mir
Reaktionen: Ja_Ge
Denniss schrieb:
Wo sind die 5000er moderner als RDNA4?
Schnellere "AI Accelerators" im Allgemeinen, Opacity Micromaps bzw. SER in HW, leistungsfähigere HW für Cooperative Vectors in den TC´s (Directx12), während AMD das über WMMA Instructionen löst.
Das ganze erlaubt kleine neuronale Netzwerke in Spielen zu nutzen um sie für Texture filtering, neural materials, texture compression, charakter rendering, mega geometry usw usf. zu benutzen.
Die Renderpipline wird Stück für Stück von rasterbasierten Ansätzen befreit und dafür ist RDNA4 eben nicht wirkllich fit bzw. RDNA 3 gar nicht zu gebrauchen.
 
Wovon wahrscheinlich auch nur wieder die schnellsten Grafikchips profitieren werden, siehe Pathtracing.
Für Otto-Normal-Verbraucher spielt es kaum eine Rolle, sieht man auch an den Verkaufszahlen von den gepushten spielen (Control, Alan Wake 2, Star Wars:Outlaws, Indiana Jones).
Das einzige Spiel, welches sich gut verkauft hat, ist Cyberpunk.
 
Was ist jetzt dein Gegenargument außer Whataboutism? Was haben Spiele-Verkaufszahlen damit zu tun?
Man kann außerdem doch heute schon entsprechende Demos wie Zorah auf Mittelklassehardware die diese Dinge nutzen völlig flüssig ausführen. Vor ein paar Tagen zog neural rendering in die UE5 ein. Vor allem eher langsamere Chips werden profitieren da Ressourcen geschont werden.
https://www.pcgameshardware.de/Unre...301/News/Nvidia-RTX-Neural-Rendering-1474209/
 
Zuletzt bearbeitet:
Was hat eine auf speziell einen Prozessor/Grafikkarte abgestimmte Demo mit eventuell kommenden Spielen zutun, die in eventuell zwei Jahren erscheinen werden.
Die Demo läuft auf einer RTX 5090 und da laufen keine NPCs rum.
Es ist eine Marketing-Demo, sonst nichts.
 
Ich frage denjenigen der so einen Unsinn in die Welt setzt ohne Fakten zu liefern
 
Wo sind denn deine Fakten, die das Gegenteil da legen?

Wie hier schon angesprochen, für reine Rasterisierung ist die 9070/XT ok.
Für Ray Tracing, Grafiktechniken und kreative Anwendungen, insbesondere jene die auf KI basieren ist die Nvidia besser.
Belege dafür kannst du dann deine Sekretärin recherchieren lassen.
 
Quidproquo77 schrieb:
:freak:
Aktaion schrieb:
Grafiktechniken und kreative Anwendungen, insbesondere jene die auf KI basieren ist die Nvidia besser.
Thread Titel und Anforderungen hast du aber schon gelesen? Anwendungen und KI interessiert hier nicht.
Aktaion schrieb:
Belege dafür kannst du dann deine Sekretärin recherchieren lassen.
Aktaion schrieb:
Frag eine KI oder eine Suchmaschine.
Kannst du auch sachlich argumentieren?
 
Falls du den Thread gelesen hast, ging es hier um meine Aussage, dass Blackwell die modernere Architektur hat und ich habe hier auf die Frage von Dennis geantwortet.
Warum du da jetzt reingrätscht, entzieht sich meiner Kenntnis. Alles andere wurde hier schon ausführlich besprochen.
Wenn du was zum Thema beizutragen hast, dann mach das gern, ansonsten spar dir deinen Post.
 
Aktaion schrieb:
entzieht sich meiner Kenntnis. Alles andere wurde hier schon ausführlich besprochen.
Damit hier nicht Dinge diskutiert werden die nichts mit dem Thema und der Ursprungsfrage zu tun haben.
 
Hier wurde auf eine Zwischenfrage geantwortet, an sich ist das Thema auch schon durch.
Warum du hier nun 2x einen Post abgesetzt hast, wovon keiner etwas zum Thema beigetragen hat und somit eine Diskussion anregst, die laut deiner Aussage vermieden werden soll, kannst du aber gern erklären.
 
Zurück
Oben