"AMD soll mal lieber...". Werdet Ingenieure, seid super, werdet eingestellt, make AMD GPUs great again

Ach, doch nicht so einfach?
Da wird kein Regler gedreht in der Entwicklung wie schnell eine GPU am Ende wird, da wird geforscht und auf Langzeit gewettet, wie gut eine neue Architektur performen wird mit theoretischen Hochrechnungen. RDNA hatte einen guten Start, aber hinten raus lässt sich langfristig leider nicht so viel damit erreichen, wie man mit GCN am Ball bleiben konnte (u.a. Fine Wine).
Auch Chiplets bei GPUs waren eine tolle Idee (RX7900), in der Praxis aber noch schwieriger zu steuern als nur den RAM Takt bei Multimonitor Betrieb, weil jetzt nicht nur der RAM Takt für ein flüssiges Bild mit Anzahl der Bildpunkte aller Monitore inkl. deren Refresh Rate skalieren muss, sondern auch noch verschiedene Memory Controller für ihre Speicherbereiche hoch gefahren werden mussten (im ersten CB Test sah man ja die schlimmen "idle" Verbräuche, die AMD mit Treiber Updates verbessert hat, aber ich vermute ganz hin gekriegt haben sie es nicht, umfangreiche Nachtests habe ich leider nirgends gesehen).
Langfristig wollen sie ja doch wieder High Performance Computing und GPUs mit der selben Architektur bedienen. Der getrennte Weg zwei Architekturen laufen zu lassen, hatte wohl doch seine Nachteile. Je nachdem wie schnell die neue Architektur marktreif wird ist RDNA4 vielleicht die letzte Iteration.
Was machen wir jetzt also mit RDNA4, wenn die Brot und Butter Karte, die AMD für stärkere Marktanteile anpeilt, auf den Markt kommt? Wir messen sie an Preis/Leistung, wie alles andere auch. Wenn sie dann enttäuscht, ist das schade für den Markt und uns Konsumenten. Wenn wir uns an die RX480 zurück erinnern, die ja ebenfalls eine Brot und Butter GPU werden sollte und das auch super erfüllt hat, lag sie laut CB Test 2016 hinter der GTX 1080 (non Ti) ~42% und dem eigenen Flagschiff Fury X ~18% zurück.
Ich bleibe gespannt, was es am Ende wird. Neugier liegt mir mehr als spekulativer Schaum vorm Mund
P.S. Ein Wort noch zu "Features". Nvidia ist schon lange der Marktführer und nur als Marktführer lassen sich "Luxus"-Features wie RayTracing in den Markt bringen, wenn die Kluft zu den Mitbewerbern so groß ist. Die traurige Wahrheit ist, dass halt niemand eine AMD Karte für exklusive Features kaufen würde, weil sich (außer man nimmt viel Geld in die Hand) niemand darum kümmern würde diese Features für 5% des Marktes in Software zu implementieren. Angenommen die Hardware würde auch noch spezielle Recheneinheiten dafür erfordern hat man einen Teil seiner GPU umsonst produziert, da er bei den Kunden brach liegt.
Als Marktführer wiederum kann bei der Implementierung dieser Features ruhig geschlampt werden. Die erste RTX Generation ist ja heute (und war es bis zur Mittelklasse damals schon) auch weit davon weg schnell genug zu sein RayTracing wirklich voll einsetzen zu können ohne andere Abstriche zu machen mal ganz zu schweigen davon, dass kleine Karten (RTX4060) das zwar super unterstützen aber in fordernden Titeln ja doch die Rohleistung dafür fehlt. Ist halt eine schwierige Situation für alle Mitbewerber. Die Strahlkraft einer 4090 (und bald 5090) kann man technisch eben auch nicht so einfach erreichen. Technisch ist Nvidia einfach sau stark und daher skrupellos mit dem Geld was Kunden dafür zahlen müssen. Den Features kann die Konkurrenz nur nachlaufen, denn die Marktstärke eigene Features auf den Markt zu bringen, hat gerade nur Nvidia und wer weiß was kommt, ist dann doppelt im Vorteil
