Naja, das sehe ich relativ gelassen. Kleines Rechenbeispiel:
Ich schätze die auf dem Bild präsentierte Wafergröße auf 30 cm Durchmesser.
Der Grafikchip der aktuell schnellsten AMD-Karte 9070 XT hat eine Fläche von 357 mm².
Man nehme an, dass die Fläche des Chips auch bei kleinerer Strukturgröße von 2nm gleich bliebe; also 357 mm².
Theoretisch sind hier bei einer Waferfläche von ~70686 mm² 198 Chips mit einer Fläche von 357 mm² als Ausbeute zu erwarten; was bei Kosten i. H. v. 45.000 einen Stückpreis von ~227 Dollar zur Folge hätte.
Nimmt man einen maximalen Edgeloss und Chipdefekt von etwa 30% an, so verblieben von den 198 theoretischen Chips ~139 nutzbare Chips übrig.
Bei Kosten von 45.000 Dollar für 139 nutzbare Chips ergibt sich ein Stückpreis von ~ 324 Dollar pro Chip.
Jetzt bin ich mutig und setze theoretisch Folgendes voraus:
Sonstige Stückkosten nochmal etwa 100% (macht dann ~650 Dollar pro Stück)
40% AMD Gewinnmarge (macht dann ~ 900 Dollar Pro Stück)
Dann kommen noch unbekannte Kosten für Boardpartner dazu, runden wir also mal auf 1.000 Dollar auf, die am Ende eine Platine ganz grob im Mittel kosten wird.
Dann liegt der theoretische europäische Einstandspreis nach Zoll (derzeit NOCH 0 Euro bei Waren über 150 EUR) und Steuer (19 MwSt) bei etwa 1.200 EUR.
Also ungefähr 50% über dem Preis einer 9070 XT bei einer Leistung, die voraussichtlich weit über 50% höher sein dürfte, da wir von vielen Jahren in der Zukunft sprechen.
Das ist aber nur eine ganz grobe betriebswirtschaftlich-kaufmännische Kalkulation, die einiges an Varianz zulässt.
In Summe wäre es aber zumindest passend vom Preisansatz wenn man das P/L-Verhältnis betrachten würde.
Setzt man nun noch im Verlauf sinkende Kosten auf die 30.000 anstatt der 45.000 voraus, dann landen wir bei roundabout 850 EUR Zielpreis, der vermutlich wesentlich eher im Markt umzusetzen wäre als 1.200 EUR.
Ich versuch mir das Gedankenspiel mal zu merken und bin gespannt, wie es dann in vielen Jahren aussieht.
