News Design und Entwicklung: TSMCs Wafer-Preise sollen rasant weiter steigen

Magellan schrieb:
. Wenn das Verhältnis von 3 zu 2nm hinkommt würde ein gleichartiger Chip ja nur noch 44% der Fläche benötigen.
Das Verhältnis kommt hin.

Trotzdem werden Chips immer teurer, weil die Einsparungen bei der Größe von den Kostensteigerungen aufgefressen werden.

Das es so kommt ist seit 2015 bekannt. Das war die Zeit als Moores Law erstmalig als tot bezeichnet wurde.....
 
12nebur27 schrieb:
.
War sowieso überrascht das sie jetzt schon die nächste Gen anschmeißen wollen. Macht halt keinen Sinn wenn du micht fragst.
.
Die CPU bremst langsam bei der 5Pro, auch basiert die aktuelle Konsole auf RDNA2, wo weder upscaling noch RT besonders gut drauf läuft.

Schau mal wo die zen2 3000er CPUs aktuell liegen.
Space Marine 2 wird da fast zur Diashow.

Auch hindert die Grafik weniger, es ist halt der günstigste Weg für die Gaming Industrie und viele haben sich darauf eingestellt.

NVIDIA hat hier sehr gute Ansätze für mehr Immersion gezeigt, welche leider mehr Speicher benötigen und wohl somit auf lange Sicht damit nur Zukunftsmusik bleiben.
 
Eusterw schrieb:
Eigentlich" müsste das in den nächsten Prozess-Schritten wieder "humaner" werden, wenn AI, große Teil der menschlichen Arbeit dort übernehmen kann.
Nein müsste es nicht

Die Stundenlöhne der Ingenieure sind nicht der Faktor der die Kosten treibt.

Die Steigerung bei den Kosten wird durch das extrem teure Equipment verursacht.

Belichtungsmaschinen und weitere Gerätschaften für 2nm sollen 200 Miillionen Dollar pro Stück kosten.
 
digdib schrieb:
Um sich das mal besser vorstellen zu könne, gibt es irgend welche Angaben dazu, wie viele Chips (zB Zen5 CCDs) so auf einen Wafer passen?
Kommt drauf an wie viele Transistoren der Chip hat. Die neue Fertigungsstufen werden ja auch dazu verwendet mehr Transistoren zu verbauen auf gleichbleibender Fläche. Wenn die Waffergröße und Chipgröße in qmm gleich bleibt, dann bleibt auch die Anzahl gleich. Dann kann man quasi die prozentuale Preissteigerung 1 zu 1 umrechnen.
 
Dann werden bei preisempfindlichen Produkten halt ältere und billigere Fertigungsverfahren verwendet. Das führt zwar anfangs zu einer Stagnation wenn die ältere Fertigungstechnik erstmals länger verwendet wird, aber danach gibt es dann wieder einen langsamen Fortschritt.
 
Syrato schrieb:
Da es bei Privatkunden Limits gibt
Das sehe ich nicht so. Habe hier schon öfter geschrieben, NV verkauft seine Spillekes Grafikkarten noch zu günstig. Die Leute zahlen jeden aufgerufenen Preis. Lieber weniger rtx und dafür mehr Servergpu aus den Wafer schnitzen. Die Leute zahlen auch 5k für eine 6090.
 
  • Gefällt mir
Reaktionen: Legalev
Heftig. Macht es dann überhaupt Sinn auf neue Technik zu setzen wenn diese teurer wird? Anders rum bringt man ja jetzt immer mehr Silicon auf gleichen Raum unter. Das bedeutet dass man zwar höhere Kosten pro Waver haz aber geringere Kosten pro Die bzw pro Transistor hat. Gleichzeitig verlangt der Markt bzw Fortschritt ja nach immer mehr Transistoren pro Euro, daher kommt ja der Fortschritt. Was bleibt dann übrig? Fortschritt in der Leistung pro Transistor dadurch dass man ihn höher takten kann weil kleiner = Kühler ist?
 
digdib schrieb:
Um sich das mal besser vorstellen zu könne, gibt es irgend welche Angaben dazu, wie viele Chips (zB Zen5 CCDs) so auf einen Wafer passen?
Einfache Rechnung:
Ein 9070 XT Chip hat eine Fläche von 357 mm².
Ein 300 mm Wafer hat eine Fläche von 70686 mm².
Theoretische Flächenausnutzung: 198 Chips.
Aber es gibt natürlich noch den Randverschnitt von 15% - 30 %. Kommen also nur 139 - 168 Chips raus.

Das kannst Du dann als Musterrechnung für alle möglichen Die-Sizes ansetzen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und KeinNutzerName
Eusterw schrieb:
"Eigentlich" müsste das in den nächsten Prozess-Schritten wieder "humaner" werden, wenn AI, große Teil der menschlichen Arbeit dort übernehmen kann.
Du kannst das Chip Design mit AI beschleunigen, aber nicht die Fertigung, wenn ich das richtig überblicke.
 
Grundgütiger schrieb:
Die CPU bremst langsam bei der 5Pro, auch basiert die aktuelle Konsole auf RDNA2, wo weder upscaling noch RT besonders gut drauf läuft.
Korrekt aber am Ende arbeiten Entwickler mit dem was ihnen gegeben wird. Upscaling wird der nächsten Generation sicherlich viel helfen aber ob du die Gen noch nen Jahr oder zwei länger machst ist am Ende recht egal. Mit Crossgen sehen wir eh noch 5 Jahre spiele auf der PS5 und es gibt Entwickler die für diese gen noch nichtmal ein Spiel bisher wirklich rausgebracht haben.
Wenn du den Studios sagst das die nächste gen noch ein paar Jahre länger braucht dann leben die damit und planen halt dementsprechend von Anfang an die Spiele so.
Ich bleibe dabei, die Switch 2 wird am ende die Baseline für eine ganze Weile sein. Zumindest wenn der Erfolg an den der Switch 1 heranreicht.
 
Neodar schrieb:
Letztlich sollen es die Endkunden bezahlen.
Deshalb wird bei mir die Nutzungsdauer einmal angeschaffter Hardware auch immer länger.
Mein 5700X3D und die 7800XT werden es noch eine ganze Weile tun (müssen).
ach, keine angst. ich verkaufe meine hardware zum guten preis sobald die neue 10er series x3d von amd draussen ist :)
 
dms schrieb:
die GPU ist doch nur ein Bruchteil des Kartenpreises. ..
Ganz im Gegenteil!
Per his statement, the GPU and VRAM take almost 80% of the BOM cost for NVIDIA's RTX 50 series, leaving little to profit from other parts such as coolers and packaging. It hardly takes a few dozen dollars to manufacture radiators, fans, and the packing, and can go up to $100 in most cases. This is why the RTX 5080 can cost up to $900 in production and selling it at $1000 may not seem very appealing to vendors.
https://wccftech.com/gpu-vendor-say...-up-to-80-of-total-cost-nvidia-rtx-50-series/

Kein Ironietag erforderlich! Steigen die Waferpreise und verdient sich TSMC weiterhin eine goldene Nase, wird das ungebremst an die Kunden weitergegeben. AMD und Nvidia werden sicherlich nicht ihrerseits auf einen Gewinn verzichten wollen, GPUs für 5000€ wird es in ein paar Jahren geben.

Fakt ist, die OEMs verlangen nicht ohne Grund hohe Aufpreise für "bessere" Modelle. Jeder zusätzliche Chip oder ein teures Kühlsystem, spiegelt sich direkt im Verkaufspreis wieder, die Margen sind hingegen knapp bemessen. Ein Blick in die Zahlen von PC-Partner (ZOTAC und Co.) zeigt gut wo das Geld verdient wird.
1748860569025.png

The Group has achieved a substantial improvement of net profit margin from 0.7% in FY2023 to 2.6% in FY2024 which resulted from a stronger demand of the new VGA Cards with NVIDIA’s “SUPER” series GPUs and the Group was able to incur less spending on advertisement and promotion on sales stimulation.
https://www.pcpartner.com/en/report.php
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cheshire, XD-User, stevefrogs und 2 andere
Magellan schrieb:
Was da jetzt etwas kurz kommt ist aber die Tatsache dass man mit den kleiner werdenden Prozessen auch entsprechend mehr Chips (bei sonst gleichem Design) auf einem Wafer unterbekommt. Wenn das Verhältnis von 3 zu 2nm hinkommt würde ein gleichartiger Chip ja nur noch 44% der Fläche benötigen.
Das stimmt aber nur theoretisch, denn die genutzte Fläche wird für mehr Transistoren genutzt. Die Chips werden also nicht kleiner, sondern bleiben ungefähr gleich groß, aber sind schneller/effizienter.
 
Magellan schrieb:
Was da jetzt etwas kurz kommt ist aber die Tatsache dass man mit den kleiner werdenden Prozessen auch entsprechend mehr Chips (bei sonst gleichem Design) auf einem Wafer unterbekommt.
Das wurde zwar schon beantwortet, aber ich gebe auch meinen Senf dazu. (Auch an @Tomsenq gerichtet)
Das gilt nur, wenn man die selben Designs bzw. Refeshes verwendet, was bei Konsolen der Fall wäre. Aber auch dort geht man nicht zu viele Schritte mittlerweile. Von 7 nm auf 6 nm ist es derzeit und das ist nur ein half-node. Die PS5 wird höchstwahrscheinlich keinen weiteren shrink bekommen, wenn die Verkaufszahlen das nicht hergeben und die Entwicklungskosten für einen full-node-Wechsel zu hoch sind. Die Pro könnte eher einen bekommen, aber verkauft die sich überhaupt gut genug? Der Stromverbrauch ist jetzt auch nicht gewaltig.
Für alles andere werden die Designs nicht (wesentlich) kleiner. Das gilt besonders für mobile Chips! Es ist effizienter auf Breite zu designen, statt mit dem Takt hoch zu gehen. Apple ist das beste Beispiel.

Letzten Endes sind Chiplets wohl der wichtigste Schritt, um diese Entwicklung irgendwie Herr zu werden. Aber z.B. auch das Advanced Packaging bei AMD ist nicht gerade billig, vielleicht aber günstiger als ein größerer Chip ohne diesem Verfahren.

Eusterw schrieb:
"Eigentlich" müsste das in den nächsten Prozess-Schritten wieder "humaner" werden, wenn AI, große Teil der menschlichen Arbeit dort übernehmen kann.
AI ist nicht immer die Lösung und hier geht es ja um die Fertigung. Dort kann AI auch nicht allzu viel helfen. Selbst beim Design muss sich AI erstmal alles effizient und effektiv erweisen.
 
  • Gefällt mir
Reaktionen: Alphanerd
Magellan schrieb:
Was da jetzt etwas kurz kommt ist aber die Tatsache dass man mit den kleiner werdenden Prozessen auch entsprechend mehr Chips (bei sonst gleichem Design) auf einem Wafer unterbekommt. Wenn das Verhältnis von 3 zu 2nm hinkommt würde ein gleichartiger Chip ja nur noch 44% der Fläche benötigen.
Die Nanometer darfst du nicht ernst nehmen.
Der Chip hat keine realen 2nm.

Das ist viel Marketing.
 
dms schrieb:
Vermisse das IronieTag oder mal den Rechengedanken dazu... die GPU ist doch nur ein Bruchteil des Kartenpreises. .. NVIDIA nagt ja mangels Marge auch am Hungertuch?

Ich setze mal den "SoC" Preis des nackten Chips unrecherchiert mit < 400$ an
(wenn ich mal einen Komplexen Chip von Apple ansetze
https://www.maclife.de/news/a16-chip-soll-doppelt-viel-kosten-a15-chip-100121440.html)

https://locuza.substack.com/p/radeon-n31-vs-geforce-ad102103-chip
Das sind aber reine Belichtungskosten für einen Chip. Da fehlt noch Software, Support, F&E, Vertrieb, Kühler, Stromversorgung, die Platine etc.
 
12nebur27 schrieb:
Für Entwickler. Ich denke mal eine gigantisch hohe Kundenzahl bei der Switch 2 ist mehr oder weniger garantiert.
Dazu kommt das anders als bei der Switch 1 mit der Switch 2 sich recht viel machen lässt, es ist also selbst für AAA Studios die niemals ihr Zeug auf die switch 1 hätten portieren können doch interessant mit der Switch 2 als Zielplattform zu Entwickeln. Wird natürlich einige geben die das nicht machen werden aber die Ubisofts, EAs etc. werden sicherlich die Switch 2 als sehr interessante Zielplattform sehen.
Also die Switch2 statt der PlayStation?
 
  • Gefällt mir
Reaktionen: Celinna
jauns91 schrieb:
Gleichzeitig verlangt der Markt bzw Fortschritt ja nach immer mehr Transistoren pro Euro, daher kommt ja der Fortschritt. Was bleibt dann übrig?
Am Ende bleibt nicht mehr viel übrig, irgendwann ist der Punkt erreicht wo es nicht schlichtweg nicht mehr rechnet und die Entwicklung zum Stillstand kommt. Für viele heutzutage mag es unglaublich klingen, aber mit beim TV hat sich früher über Jahrzehnte kaum was getan und trotzdem hat man in die Glotze geguckt.

Wirtschaftlich wird es natürlich auf eine Rezession zulaufen, wer kauft sich dann noch alle zwei Jahre ein neues Handy, wenn sich an der Leistung kaum was ändert. Für andere Branchen ist das aber schlichtweg Normalität, an Töpfen, Besteck oder Möbeln, ändert sich auch nicht ständig die Leistung.
 
  • Gefällt mir
Reaktionen: stevefrogs
pacifico schrieb:
Die Stundenlöhne der Ingenieure sind nicht der Faktor der die Kosten treibt.

Die Steigerung bei den Kosten wird durch das extrem teure Equipment verursacht.

Deinorius schrieb:
AI ist nicht immer die Lösung und hier geht es ja um die Fertigung. Dort kann AI auch nicht allzu viel helfen.

Ich hab das da tatsächlich komplett anders gelesen als Ihr. Für mich haben die Grafiken so gewirkt, das die größten Kosten durch Software und Verifizierung kommen.

Da wird Hardware einen Anteil haben, aber ich vermute da schon ganz SIGNIFIKANTE Kostenanteile, die aus Zeit (wie lange brauche ich und blockiere Hardware) und Stunden (wie viele Stunden investieren die Ingenieure in die Blöcke) resultieren.

Ich sehe das somit anders und glaube künstliche Intelligenz kann diese Positionen wesentlich positiv beeinflussen.
 
12nebur27 schrieb:
War sowieso überrascht das sie jetzt schon die nächste Gen anschmeißen wollen.
Die PS5 kam im November 2020 auf den Markt.
Die PS4 kam im November 2013 auf den Markt.
Die PS3 kam im November 2006 auf den Markt.
Die PS2 kam im November 2000 auf den Markt.

Naja nicht ganz, je nach Region mal früher/später. Aber grob gab es alle 6-7 Jahre eine neue PlayStation. Die PS5 wird dieses Jahr auch schon 5 Jahre alt. Ist heutzutage halt auch nur noch standard x86_64-Ware ohne großes Alleinstellungsmerkmal.

Vermutlich reizt hier einfach eine neuere APU/Architektur bei der man mehr Leistung zu günstigeren Produktionskosten bekommen kann. ZEN2-CPU (AMD 3000'er Serie) und RDNA2-GPU (RX6000'er Serie) ist halt mittlerweile recht angestaubt.
 
Zurück
Oben