Vieles wurde schon gesagt. AMD hat hier teilweise nur einen Full node shrink TSMC N7 auf N5/N6 -> +25% + Architekturverbesserung 10-20%, nicht zwei wie bei NVIDIA (SAMSUNG 8nm (= etwas verbesserter SAMSUNG 10nm) -> TSMC N7 -> TSMC N4 (=etwas verbesserter TSMC N5)). Habe zwar mit ca. 10-15% Verbesserung gegenüber einer 4080 gehofft (raster) -- bei manchen anderen Testern schneitet die 7900XTX auch etwas besser ab als hier auf CB -- aber mindestens 4080 Geschwindigkeit reicht mir. Was mir gar nicht gefällt sind 80 Watt Leistungsaufnahme bei YouTube, hoffe auch, dass es ein Treiber- und nicht Hardwarebug ist.
Am stärksten hat mich überrascht:
- die ca. 30% höhere Effizienz der 4080, hätte fast gleichstand erwartet
- die kaum gesunkene Leistungsaufnahme bei 4K@144 FPS (345 Watt), hoffe ist ein fixbarer Treiberbug
Igor misst in 4K einen um +81 Watt höheren Stromverbrauch der 7900XTX gegenüber einer 4080. Das muss in der Tat nicht weiter kommentiert werden, vor allem bei den immer höheren Strompreisen (bzw. Energiepreisen generell), wobei das Gehalt auch mitwächst, nur wir stark, wäre die Frage.
Wenn ich 2h am Tag in 4K zocke, macht das ca. +25€ im Jahr mehr und in 8 Jahren hätte sich die 4080 ausgezahlt, die aktuell ca. 200€ mehr kostet (81*2*365*0,45/1000). In 8 Jahren habe ich 100% eine andere Karte. Auch wenn wir alle gerne effizientere Karten hätten, die weniger Strom verbrauchen, gehen 25€/Jahr im Rauschen unter (und Streamer und Renderer, die 8h statt 2h die Karte auslasten, machen das ganze möglicherweise Beruflich, kommt also auch nicht auf die Stromkosten an). Mich stört eher, dass die Referenz 7900XTX spulenfiepen haben soll, da warte ich mal noch auf die custom AIBs wie SAPPHIRE Pulse mit 2x8Pin Anschlüssen. Übertakten werde ich nicht, eher untertaken, wobei kommt auf die Verbesserung an (bei der 4090 lohnt sich das ja mal richtig).
Wenn einem Raytracing wichtig ist, sind die +200€ für 4080 es wert (oder gleich 4090). Die Karte hat man dann mindestens 2-2,5 Jahre bzw. bis zur Generation, was sind 200€ auf 2 Jahre gerechnet. (korrekt, kein Fragezeichen)
Insgesamt ernüchternd. Hoffe die 7900XTX korrigiert sich im Preis. Verwende Linux und da sind die open source Treiber für AMD Karten super, aber die höhere RT Geschwindigkeit und Effizienz der 4080 ist verlockend (leider ist erst die sehr teure 4090 richtig schnell in RT (in OLED sollten es angeblich schon >90 FPS sein, damit durch die sehr kurzen 0,1ms pixel response times kein "ruckeln" Effekt entsteht, aber die ist mir zu teuer, leisten könnte ich mir sie, aber sehe es bei 2k€ einfach nicht ein)).
Ayo34 schrieb:
Gerade noch die Übersicht bei PGH gesehen, dass schockiert mich schon. Das Hauptthema war doch immer die Effizienz bei AMD. Da versagt man komplett. Sowohl in der Spitze, aber extrem bei Teillast oder wenn man kein 100% Workload hat.
Verbräuche 7900xtx / 7900xt
Desktop, 1 Display, Idle, 4K60 17 Watt 15 Watt
Desktop, 1 Display, Idle, 4K120 48 Watt 41 Watt
Desktop, 1 Display, Idle, 4K144 102 Watt 87 Watt
Desktop, 2 Displays, Idle, 4K60+2K60 48 Watt 41 Watt
Desktop, 2 Displays, Idle, 4K144+2K120 102 Watt 88 Watt
Youtube-Video, 1 Display, 4K60 69 Watt 64 Watt
Youtube-Video, 1 Display, 4K144 78 Watt 71 Watt
-> Im Idle einfach mal über 100 Watt wo die 4080 unter 20 Watt benötigt. Dazu 350 Watt in Spielen, immer, auch mit Framecap. Starke Einbrüche, wenn man die TDP z.B. auf 250Watt limitieren will.
-> Entweder ist der Treiber eine Katastrophe oder die Karte. Hoffe das kann in den nächsten Wochen noch gefixed werden.
Danke für die Info. Hoffe auch, dass es im Treiber gefixt wird.