ErnstHaft99 schrieb:
Bewertungen mit Unsinn nehme ich grundsätzlich nicht ernst.
So kann man sich natürlich auch einer Diskussion entziehen.
ErnstHaft99 schrieb:
Höhere Auflösungen kosten Speicher. Logisch, weil X*Y*bit. Da sind wir uns einig.
ErnstHaft99 schrieb:
Der Punkt mit 256 bit zu 192 bit stimmt nicht. Selbst die 4070 Ti hat auch ein 192 bit Interface und leidet nicht an der Bandbreite, denn auch dort sind GDDR6(X) verbaut. Da die 9070 GRE nur halb so viele Recheneinheiten wie die XT hat, würde das gar nichts bringen.
"entweder die Speicherbandbreite oder -menge"
Nicht die Bandbreite, nur die Menge.
Es gibt Spiele, in denen bei bestimmten Auflösungen und Einstellungen die Bandbreite wichtig ist und es gibt auch GPU-Architekturen, die besser oder schlechter mit der Bandbreite haushalten.
Dass das schwierig von der Speichermenge zu trennen ist, wenn eine geringere Speichermenge auch automatisch ein kleineres Speicherinterface und damit weniger Bandbreite bedeutet, sehe ich ein.
Ich nehme an, die von CB im Test der 9070 GRE als bandbreitenabhängig genannten Titel, Dragons Dogma und und COD: BO6 sind dafür bekannt.
Indizien wären natürlich, wenn sich in höheren Auflösungen der Abstand zwischen 4070(S)/5070 und 4060Ti 16GB/5060Ti 16GB, aber zwischen ersteren und 4070TiS/5070Ti vergrößerte. Holen dagegen die kleinen Karten mit 16GB auf die 12GB-Karten auf, liegts er an der Menge. Leider ist selbst die 5060Ti 16GB ab UWQHD gar nicht mehr dabei. Aber auch, wenn der Abstand zwischen 4070(S) mit GDDR6X und 5070 mit GDDR7 größer wird, liegt das wahrscheinlich an der Bandbreite.
Einfacher festzustellen ist sowas mit Speicher-OC. Wenn erhöhter Speichertakt 1:1 in mehr Leistung umgesetzt wird, ohne den Chiptakt zu erhöhen, hat eine Karte zu wenig Bandbreite (z.B. AFAIK 4070Ti und sogar 4070, da die GDDR6-Version ja dem Speichertakt entsprechend langsamer war). Bringt Speicher-OC ohne Chip-OC dagegen nichts, ist die Bandbreite ausreichend (z.B. 4070TiS).
ErnstHaft99 schrieb:
Dann haben du und ich aber offensichtlich andere Definitionen von spielbaren fps in Zeiten von 144 Hz und mehr Displays sowie dem Framepacing.
Ja, haben wir. Mir ist bewusst, dass etwas mehr 30fps nicht mehr so weithin als ausreichend empfunden werden wie noch vor einigen Jahren, aber dreistellige fps-Werte erziehlt man nativ auch heute nur mit den schnellsten Karten in UWQHD und UHD. Die 9070 GRE erreicht in vielen Titeln auch in UWQHD 50, 60 und 80fps.
K1LL3RC0W schrieb:
Der Chip der 7900er inkl. GRE ist Highend und die der 9070er Mittelklasse, daher ist ein Vergleich zwischen den beiden nicht sinnvoll. 9070XT und 9070 sind chipmäßig die Nachfolger der 7800XT und 7700XT. Somit ist AMDs aktuelle Mittelklasse auf Höhe vorherigen Highends und somit auch kein Stillstand.
Mumpitz. Ob der Chip highend ist oder nicht war noch nie relevant. Eine GeForce 6 6800LE/XT hatte auch den "highend"-Chip der 6800 Ultra und war stets langsamer als die 6600GT mit dem "midrange"-Chip.
Die 7900 GRE ist stets nur minimal schneller als die 7800XT und war auch die meiste Zeit nur moderat teurer.
9070 und XT mögen in etwa auf dem Niveau von 7900XT und XTX sein, sie sind aber mitnichten auf dem Preisniveau von 7800XT und 7700XT. Preislich ist die 9070XT etwas unterhalb der 7900XT vor den Abverkaufspreisen, die 9070 bei den letzten Preisen der 7900GRE.
Die 9070GRE wird auf dem Niveau der 7800XT landen müssen, um attraktiv zu sein, bietet aber nur geringfügig mehr Leistung. Vor allem mit RT bietet sie erstaunlicherweise weniger Fortschritt als die stärkeren Karten.