Ich kann nur noch mal wiederholen wie erstaunlich ich es finde, dass die Karten nahezu rein über Takt und TBP skalieren und die 8CUs weniger so wenig Unterschied bewirken. Das gab es mWn noch nie. Es ist ein Mysterium für mich.
Ich würde gerne wissen woran es liegt. Kriegt AMD die CUs nicht alle gut ausgelastet (durch Treiber oder gar den Hardware-Aufbau) mit Arbeit beim rendern? Gibt es Szenarien, die vielleicht dieses Mehr an CUs besser ausnutzen können? Tritt der Mehrwert erst an der Grenze auf, wenn man beide Karten an den maximalen Takt prügelt?
Jetzt rechnet die 9070 bei 300 Watt TBP ja etwa genau so schnell wie die 9070 XT. Sind die CUs so (in?)-effizient, dass sie bei geringerem Takt immer noch so viel verbrauchen, dass 64 Compute Units (Achtung Takt-Fantasiezahlen zur Anschaulichkeit) mit 2.65GHz so schnell laufen wie 56 Compute Units mit 3GHz?
Ist Verhältnis besser oder schlechter als diese "12,5%"? Wie verschiebt sich das im Verhältnis zur maximalen Leistungsaufnahme im unteren und oberen Bereich? Haben beide Karten unter der Haube doch die selbe aktive Anzahl CUs? 😂 Ich wünsche mir Antworten
Vermutung:
Vllt. ist das auch einer der technischen Günde, warum AMD keine 9080 oder 9090 auf den Markt bringen wollte (ich finde das Zielgruppen-Argument von ihnen schon sinnvoll, um wieder Marktanteile zu kriegen), denn wenn die CU Anzahl nicht so richtig gut in Rechenleistung skaliert, ergibt ein Produkt mit größerem Chip auch nicht viel Sinn.