News Design und Entwicklung: TSMCs Wafer-Preise sollen rasant weiter steigen

"Eigentlich" müsste das in den nächsten Prozess-Schritten wieder "humaner" werden, wenn AI, große Teil der menschlichen Arbeit dort übernehmen kann.

Bei 1 Milliarde Kosten, um Komplexität zu beherrschen, kommt bestimmt einer (z.B. Nvidia), der das der künstlichen Intelligenz beibringen kann.
 
  • Gefällt mir
Reaktionen: McTheRipper und digdib
Neodar schrieb:
Letztlich sollen es die Endkunden bezahlen.
Deshalb wird bei mir die Nutzungsdauer einmal angeschaffter Hardware auch immer länger.
Mein 5700X3D und die 7800XT werden es noch eine ganze Weile tun (müssen).
Die Hardware ist dafür auch länger zu gebrauchen. Mit deiner GPU und CPU kann man wunderbar zocken.

Das relativiert die Kosten schon auch wieder.
 
Jetzt will ich nochmal hören das NVIDIA und AMD grundlos die Preise nach oben treiben…der Preis wird weitergegeben und fertig.

Es wirkt fast so als wolle man soviel Geld wie möglich generieren, damit man sich auf ein kommenden Angriff besser vorbereiten kann.
 
  • Gefällt mir
Reaktionen: sikarr
Chismon schrieb:
Die Kosten-Nutzen-Relation (vor allem für Gaming) dürfte immer schlechter werden bzw. PC- und Konsolenhardware immer größerer Luxus werden, aber das war längere Zeit schon absehbar (dazu kommen noch steigende AAA Spiel-Preise mit u.U. weniger Rabatt im Angebot).
Da Frage ich mich wie die Spieleindustrie das auffangen wird? Ich denke wenn die Kunden länger auf ältere Hardware bleiben oder eine neue Konsolengeneration sich nur schlecht verkauft. Werden Publisher sich überlegen müssen wie sie dem begegnen. Denke da wird die Grafik stagnieren und irgendwann auch die KI bei Spielen.
Sony, MS und Nintendo wird das auch nicht wirklich freuen. Wenn eine PS6 zu Release 900 Euro oder mehr kosten wird, werden viele gar nicht erst kaufen.
 
  • Gefällt mir
Reaktionen: McTheRipper, 9t3ndo und Chismon
Gut, dass die ersten die 2nm wollen auch kräftig dafür in die Tasche greifen müssen war klar.
1. Die Kapazität ist begrenzt, also setzt man den Preis so hoch an, so das man die Kapazität voll verkauft bekommt, aber dabei maximal umsatz macht.
2. Ist 2mn nicht für alles interessant. Konsumer Grafikkarten werden den niemals bekommen. Dafür wir zu wenig geld mit uns gemacht. Und ja wir die preise sind zum kotzen, aber die chiphersteller machen trotzdem wenig geld mit usn je stück. Das wird alles in Ki produkte reingehen wo man derzeit noch maximale preise bei den Rechenzentren abgreifen kann.
3. Apple sehe ich im Konsumer bereich als einzigen Player, der das für Konsumerkunden buchen könnte. Einfach weil Apple diese Preise verlangen kann und die Kunden es zahlen. Apple wird eben als Premium marke wahrgenommen. Ob ein Handybesitzer jetzt einen m5 Leistungstechnisch in 2nm, 3nm oder 5nm ungenutzt im Handy/Macbook hat ist irrelevant. Der Konsumerteil von Apple kauft oft des Status wegen Apple und schaut nicht danach ob er diese leistung überhaupt benötigt/ausnutzt. Gilt eigentlich für die wenigsten Menschen die sich eien handy kaufen. Für alle Apple User die auch wirklich damit arbeiten, wird das aber ein guten Leistungsbonus geben und der wird auch gerne angenommen werden.

Also wer wird Kunde für diesen Prozess für das erste jahr sein? NVidia und Apple. Beide haben Geld wie heu und eine Kundschaft die diese Preise bereit sind zu zahlen. Wenn die entwicklungskosten später reingeholt wurden und auch mehr Fabriken aufgerüstet sind, dann werden die Preise sinken und andere Kunden ebenfalls in diesen genuss kommen.

Hat sich doch quasi nichts verändert.
 
  • Gefällt mir
Reaktionen: coral81 und medsommer
xexex schrieb:
Eine Verdopplung der Waferpreise, würde bei gleichbleibenden Yield, zur Verdopplung der GPU Preise führen, ich sehe schon RTX7090 für 5000€ kommen.
Ich denke das wäre das selbst 90% der Leute hier die eine x090er von Nvidia kaufen zu teuer. Vor allem wenn es wieder mit 30% mehr Leistung zum Vorgänger gibt.
Wird wirklich Zeit das Samsung und Intel zu TSMC wieder aufschließen. Es braucht wieder Konkurrenz.
 
  • Gefällt mir
Reaktionen: MalWiederIch und Celinna
ThePlayer schrieb:
Wenn eine PS6 zu Release 900 Euro oder mehr kosten wird, werden viele gar nicht erst kaufen.
So wie ich das sehe ist der einzige Weg wie das gehen wird kleinere Sprünge bzw. längere Konsolengenerationen. Daher tippe ich bei der PS6 auch auf 24gb ram und nicht auf 32 und nicht auf 2nm sondern auf 3nm.
War sowieso überrascht das sie jetzt schon die nächste Gen anschmeißen wollen. Macht halt keinen Sinn wenn du micht fragst.
Dazu kommt auch noch das die Switch2 die Baseline sein wird für die nächsten 8 Jahre oder so, Crossgen wird also nochmal viel viel länger sein als beim letzten Mal.
 
Diese Preisentwicklung dürfte nur für die KI-Rechenzentren akzeptabel sein. Dort kann man entsprechende Preise für die Hardware verlangen.

Fast alle anderen Bereiche dürfte so langsam an die Schmerzgrenze kommen und werden die Preise kaum weitergeben können. Die werden dann auf den alten Prozessen eine ganze Weile bleiben.
 
Ja, das war leider zu erwarten/befürchten.

Wenn Intel hier den Anschluss nicht hinkriegt wird es auch nicht mehr möglich sein diesen herzustellen, weil die Forschungs/Entwicklungskosten zu hoch werden.
 
latiose88 schrieb:
Es wird für den mit wenig Geld auch immer schwerer werden .
Selbst wenn man genug Geld zur Verfügung hat. Stellt man sich dann langsam die Frage ist man bereit sie Preise zu zahlen. Und wenn dann eine 6090 oder 7090 oder 7070 dann fast doppelt so teuer wie die aktuelle Generation ist. Werden immer weniger Leute bereit sein dieses Preise zu zahlen.
latiose88 schrieb:
Bis ich dann wieder was kaufe vergehen viele Jahre und bis dahin wird alles dann deutlich günstiger mit der Fertigung sein .
Ich glaube da hast was falsch verstanden. Mit jedem Node steigen die Kosten. Da wird nichts günstiger.
Gut ein Node wird dann mit der Zeit etwas günstiger werden. Aber das muss nicht bedeuten das die Preise für CPUs/GPUs gesenkt werden.
 
Syrato schrieb:
Da es bei Privatkunden Limits gibt, wird eh das Meiste für die Geschäftskunden gefertigt.
Fertigt TSMC nicht immer für Geschäftskunden? :D


:mussweg:
 
  • Gefällt mir
Reaktionen: MalWiederIch, GameOC, Alphanerd und eine weitere Person
12nebur27 schrieb:
So wie ich das sehe ist der einzige Weg wie das gehen wird kleinere Sprünge bzw. längere Konsolengenerationen. Daher tippe ich bei der PS6 auch auf 24gb ram und nicht auf 32 und nicht auf 2nm sondern auf 3nm.
Ja vielleicht wird das so sein.
12nebur27 schrieb:
Dazu kommt auch noch das die Switch2 die Baseline sein wird für die nächsten 8 Jahre oder so,
Was meinst du, wofür wird das die Baseline sein? Für Nintendo oder den Spielemarkt?
 
Beg1 schrieb:
Die Leistungssprünge werden wohl kleiner, die Kosten steigen jedoch massiv.
Was Spielegrafik angeht, sind wir auch am Ende angekommen, der Generationssprung von PS4 auf PS5 war schon sehr klein, PS5 auf PS6 wird man vermutlich mit der Lupe suchen müssen (außerhalb von stabileren fps).
Ich denke eher das wir durch Raytracing wieder einen größeren Grafiksprung erwarten dürfen bei den Konsolen, vor allem im Bewegtbild.
Das wird einen Enginewandel hervorrufen der auf Raytracing als einzige Beleuchtungs- und Schattenmethode basiert.
Dazu wird der minimale VRAM weiter wachsen, welcher wiederum bessere Texturen zulässt.

Realistischere Beleuchtung ist einfach der nächste Schritt, der viel ausmachen wird zusammen mit plastischeren Texturen.

PS5 und Series X waren zum Release einfach leider schon veraltet und haben nur zum damaligen PC aufgeschlossen. Daher war der wow Effekt auch einfach nicht da, weil man alles so schon kannte.
 
  • Gefällt mir
Reaktionen: mr_clark und stevefrogs
Den Beitrag finde ich sehr interessant und auch wenn niemand Genaueres weiss, werden die Inhalte schon in die richtige Richtung gehen.

Man merkt aber auch klar, dass die Nachrichtenlage genutzt wird um immer abstrusere Gewinnsteigerungen zu rechtfertigen. Ist ja bei der Wirtschaftslage grundsätzlich nicht anders - "Ist Inflation / Corona / Krieg / Energiekrise, alles wir teurer, daher heben wir die Preise an" - seltsamerweise steigen die Bruttomargen dann immer weiter, bis bald mehr Gewinn als Umsatz da ist ;-).

Jedem leuchtet ein, dass bei immer weiterem technischen Fortschritt der nächste Entwicklungsschritt immer teurer wird.

Jedem mit einem Taschenrechner leuchtet aber auch ein, dass eine 5090 in der Herstellung keine 200€ kostet, wenn man einfach nach Abzug der Mehrwertsteuer die Bruttomargen runterrechnet der beteiligten Unternehmen - Der (Zwischen-)Handel bekommt noch 10% und Asus 20% - was kostet das also aktuell wirklich? Ziemlich wenig, wenn sich alle etwas weniger brutal die Taschen vollmachen würden

UnternehmenBruttomarge (aktuelles Quartal)Quelle
TSMC59,0 % (Q4 2024)
Nvidia73,03 % (Q1 2025)
 
  • Gefällt mir
Reaktionen: JJJT, Celinna, medsommer und eine weitere Person
ThePlayer schrieb:
Was meinst du, wofür wird das die Baseline sein?
Für Entwickler. Ich denke mal eine gigantisch hohe Kundenzahl bei der Switch 2 ist mehr oder weniger garantiert.
Dazu kommt das anders als bei der Switch 1 mit der Switch 2 sich recht viel machen lässt, es ist also selbst für AAA Studios die niemals ihr Zeug auf die switch 1 hätten portieren können doch interessant mit der Switch 2 als Zielplattform zu Entwickeln. Wird natürlich einige geben die das nicht machen werden aber die Ubisofts, EAs etc. werden sicherlich die Switch 2 als sehr interessante Zielplattform sehen.
 
ThePlayer schrieb:
Da Frage ich mich wie die Spieleindustrie das auffangen wird?
Angeblich ist durch K.I. ja noch eine Menge Zusatzleistung in Spielen möglich (wenn man dem nVidia und AMD Marketing glaubt), welche dann auf immer mageren (da durch Fertigung immer teureren), aber darauf per Architektur angepassten Grafikprozessoren laufen dürfte.

Vielleicht geht die Abwärtskompatibiltät der Hardware zu älteren Spielen dann irgendwann hops (durch einen großen Schnitt) und wer weiß schon am Ende, wie viel man noch selber spielt und wieviel im Spiel K.I. gesteuert ist/wird.

Filme mit QuickTime Events, die als Spiele vermarktet werden und durch die man durchgeschleust wird, gibt es ja heute schon.

Dazu kommt evt. eine immer größere, durch Spiele-Entwickler und -provider kontrollierte Zuwendung zu Cloud-Streaming/-Gaming, die Hardwareschwäche vor Ort kompensieren könnte aber mit für die Bereitsteller lukrativen (Abo-)Zusatzkosten und womöglich In-Game-Werbung winkt; für Verbraucher (und deren Rechte) wohl eher ein Graus (Gaming wird zunehmend durchkommerzialisiert).

Dazu kann ich mir - analog zur Lebensmittelindustrie - vorstellen, dass der Produktumfang durch die Bank in der Spieleindustrie reduziert wird (zu ähnlichen Preisen oder gar höheren als vorher), Spiele also kürzer/kleiner werden und damit günstiger produziert werden ebenso wie immer mehr Schema F/"neuer Einheitsbrei" Produktionen besonders im AAA Segment auf den Markt kommen.

Schauen wir 'mal, wer genügsamer ist und sich mit reichlich "Piles of Shame" eingedeckt oder gar ausgesorgt hat, der/die dürfte davon wohl weniger stark betroffen sein.

Mir macht dieser mögliche Ausblick eher Sorgen, aber zum Glück bin ich zunehmend genügsamer (mit kaum noch Interesse an neueren Spielen zu/direkt nach Release) und orientiere mich an meinen "Piles of Shame" oder Retro Gaming.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheAnswer42, coral81 und Deinorius
Eusterw schrieb:
"Eigentlich" müsste das in den nächsten Prozess-Schritten wieder "humaner" werden, wenn AI, große Teil der menschlichen Arbeit dort übernehmen kann.
Das passiert schon längst.
Eusterw schrieb:
Bei 1 Milliarde Kosten, um Komplexität zu beherrschen, kommt bestimmt einer (z.B. Nvidia), der das der künstlichen Intelligenz beibringen kann.
Stichwort: cuLitho

AI hilft schon, aber trotzdem ist der Aufwand halt umso größer, je näher wir den physikalischen Grenzen kommen. Und denen sind wir schon sehr, sehr nahe.
 
Naja, das sehe ich relativ gelassen. Kleines Rechenbeispiel:
Ich schätze die auf dem Bild präsentierte Wafergröße auf 30 cm Durchmesser.
Der Grafikchip der aktuell schnellsten AMD-Karte 9070 XT hat eine Fläche von 357 mm².
Man nehme an, dass die Fläche des Chips auch bei kleinerer Strukturgröße von 2nm gleich bliebe; also 357 mm².
Theoretisch sind hier bei einer Waferfläche von ~70686 mm² 198 Chips mit einer Fläche von 357 mm² als Ausbeute zu erwarten; was bei Kosten i. H. v. 45.000 einen Stückpreis von ~227 Dollar zur Folge hätte.
Nimmt man einen maximalen Edgeloss und Chipdefekt von etwa 30% an, so verblieben von den 198 theoretischen Chips ~139 nutzbare Chips übrig.
Bei Kosten von 45.000 Dollar für 139 nutzbare Chips ergibt sich ein Stückpreis von ~ 324 Dollar pro Chip.

Jetzt bin ich mutig und setze theoretisch Folgendes voraus:
Sonstige Stückkosten nochmal etwa 100% (macht dann ~650 Dollar pro Stück)
40% AMD Gewinnmarge (macht dann ~ 900 Dollar Pro Stück)

Dann kommen noch unbekannte Kosten für Boardpartner dazu, runden wir also mal auf 1.000 Dollar auf, die am Ende eine Platine ganz grob im Mittel kosten wird.
Dann liegt der theoretische europäische Einstandspreis nach Zoll (derzeit NOCH 0 Euro bei Waren über 150 EUR) und Steuer (19 MwSt) bei etwa 1.200 EUR.

Also ungefähr 50% über dem Preis einer 9070 XT bei einer Leistung, die voraussichtlich weit über 50% höher sein dürfte, da wir von vielen Jahren in der Zukunft sprechen.
Das ist aber nur eine ganz grobe betriebswirtschaftlich-kaufmännische Kalkulation, die einiges an Varianz zulässt.

In Summe wäre es aber zumindest passend vom Preisansatz wenn man das P/L-Verhältnis betrachten würde.
Setzt man nun noch im Verlauf sinkende Kosten auf die 30.000 anstatt der 45.000 voraus, dann landen wir bei roundabout 850 EUR Zielpreis, der vermutlich wesentlich eher im Markt umzusetzen wäre als 1.200 EUR.

Ich versuch mir das Gedankenspiel mal zu merken und bin gespannt, wie es dann in vielen Jahren aussieht. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GT200b und end0fseven
xexex schrieb:
Eine Verdopplung der Waferpreise, würde bei gleichbleibenden Yield, zur Verdopplung der GPU Preise führen, ich sehe schon RTX7090 für 5000€ kommen.
Vermisse das IronieTag oder mal den Rechengedanken dazu... die GPU ist doch nur ein Bruchteil des Kartenpreises. .. NVIDIA nagt ja mangels Marge auch am Hungertuch?

Ich setze mal den "SoC" Preis des nackten Chips unrecherchiert mit < 400$ an
(wenn ich mal einen Komplexen Chip von Apple ansetze
https://www.maclife.de/news/a16-chip-soll-doppelt-viel-kosten-a15-chip-100121440.html)

https://locuza.substack.com/p/radeon-n31-vs-geforce-ad102103-chip

For a fully enabled AD102 product we would look at silicon costs of about $254.55 to $309.09.
 
Zurück
Oben