@TheInvisible die 9070xt ist nur mit RT schneller, das wars aber auch schon, raster stinkt die ab.
Generell eine traurige entwicklung und das gilt für beide Seiten, also auch nvidia.
Mann bedenke das damals die 1070 die 980TI locker weggeraucht hat, und obendrein noch effizienter und 2GB mehr vram hatte. Was haben wir heute? Heute kommte nichtmal das 2 stärkste model aus dem aktuellen lineup an das vorherige Topmodel ran. sprich ne 5080 ist lahmer als ne 4090.
Und was macht AMD? den ihr aktuelles topmodel schlägt das alte nur in der effiziens und RT leistung, rest ist nen dickes downgrade. Obendrein kommt bei AMD noch die Farce mit FSR4 und RDNA4 only. Ich würd nen teufel tun wegen sowas auf rasterleistung und 8Gb Vram zu verzichten, bzw bei der leistung im großen und ganzen auf der stelle zu treten.
Diese aktion nehme ich AMD auch wirklich übel, es muss kein 5090killer sein, aber die 4090/7900XTX hätte man schon locker schlagen sollen.
Hätte AMD damals ne RX9090XTX oder wie auch immer die heissen würde welche zwischen einer 4090-5090 hin und hergereicht wird und mit minimum 24GB auf den markt gekommen wäre, hätte ich wohl zugeschlagen. Und nüchtern betrachtet wäre das wohl vielleicht mit dem RDNA4 chip in der 96CU variante drin, wären ja 50% mehr als die 9070XT hat, takt und mehr speicherbus ist da noch nicht mit eingerechnet, allen vorran der sprung dann von GDDR6 zu GDDR7.
Was AMD aber gut hinbekommen hat, was mit sicherheit auch an den monitoren liegt, ist der Idle verbrauch der XTX 9W mit 1x 2160p144 + 1x2160p60, beides Benq EX2710U, lustigerweise gehts dann bei 2x 2160p144 auf 18w hoch, da der 2te screen aber nur für Discord oder youtube oder was auch immer auf ist langen mir da die 60hz, in spielen sinds auch nur 60hz. Mache ich nur 1x2160p144 komme ich sogar auch schwankende 3-4w. Das ist weit unter den Messergebnissen der tests.
Lustigerweise ist das bei einem bekannten genau andersrum, er hat ne 9070XT und kommt nicht unter 40w mit sein MSI 4k 165 monitor, selbst bei 4k 144 bleibts so hoch.