News TSMC-Fertigung: PC-Hersteller wie AMD und Nvidia bleiben bis 2025 bei 4 nm

Thukydides schrieb:
5nm.

Der heißt ja 4N und nicht N4.
Es ist N4(P), und das hat auch nicht viel mit 5nm zu tun.
Es läuft zwar als optimierte N5 aber diese ist ja auch nicht 5nm.
Diese Verknüpfung existiert so halt nicht mehr.
Da geht es kaum noch kleiner.
Eher wird an den Gates, Lagen und Power Distribution gearbeitet, GAA und backside Power delivery bsp. kommen da noch und werden viel bringen.
 
CB_KeinNameFrei schrieb:
Was man hierbei nicht außer Acht lassen sollte: TSMC had die Preise gerade für die neuesten Nodes in den letzten Jahren brutal angezogen. Es ist durchaus nicht auszuschließen, dass ein N3-Wafer aktuell das doppelte oder dreifache kostet, was man für einen N4-Wafer zahlen würde - und das ist noch bevor die Ausbeute tatsächlich funktionierender Chips einberechnet ist.

Laut Moore's Law Is Dead ist die Entscheidung von AMD, Zen5 auf N4 zu launchen, zumindest in Teilen dem Preis geschuldet. Und auch die Fähigkeit von AMD, Ada mit RDNA2 in Preis/Leistung zu schlagen, liegt hauptsächlich an der Preispolitik von TSMC.
Deshalb brauchen wir dringend Intel.
 
Aslo schrieb:
Wird eh mal Zeit für bahnbrechende neue Technologien (z.B. optische Chips). Bei klassischen Siliziumchips ist das Ende der Fahnenstange so gut wie erreicht.
Optische Komponenten brauchen mehrere Größenordnungen mehr an Fläche, was einfach an der viel größeren Wellenlänge von Licht liegt. Sie haben Vorteile in bestimmten speziellen Anwendungsfällen, aber es ist keine grundsätzlich bessere Technologie.
 
  • Gefällt mir
Reaktionen: Kaulin und LukS
foofoobar schrieb:
In Mathe und Physik nicht aufgepasst?

PicoMeter.
Naja, führt dazu das Leute ohne Ahnung lieber 5nm kaufen weil das kleiner klingt als 800pm.
Denke das Marketing würde dann eher mit 0,8nm werben.
 
CB_KeinNameFrei schrieb:
Laut Moore's Law Is Dead ist die Entscheidung von AMD, Zen5 auf N4 zu launchen, zumindest in Teilen dem Preis geschuldet. Und auch die Fähigkeit von AMD, Ada mit RDNA2 in Preis/Leistung zu schlagen, liegt hauptsächlich an der Preispolitik von TSMC.
Wenn die Leaks zum Thema so stimmen, dann wären auch N5 Zen 5 Modelle realistisch, denn N4 ist ja nichts weiter als ein N5 Prozess.
Ich vermute mal, da mir hier die Preislisten fehlen, Faktor 3 zum N5. (also für N3/X)
Gerne darf AMD auch Zen 4 in N7 bringen als Einsteigermodelle. Vermutlich bleibt das ein Traum.
 
Petzibär schrieb:
Die nm sind ja sowieso nur Marketing. Bin gespannt wie sie das ab 1nm weiter vermarkten wollen :D
Intel hat es eigentlich schon gezeigt mit 20A und 18A.
Künftig wird wohl in Ångström geworben.

1A sind dabei 100 pico meter.
 
  • Gefällt mir
Reaktionen: LukS und dualcore_nooby
das heißt halt leider auch, dass die Preise oben bleiben für die aktuellen GPUs weil kein größerer Sprung zu erwarten ist.
Gibt Intel halt die Chance aufzuholen, sowohl bei GPUs als auch bei der Fertigung.
Sollte Intel tatsächlich 18A nicht nur im Labor am Laufen haben, sondern Produkte um 2025, dann ist man wieder gut dabei. Sollte man auch als Fremdfertiger/Foundry was taugen wär das wichtig für sie.
 
Im übrigen ab 1,5nm kommt die Unschärfe zur Aktion daher wird es keine kleinere nodes mehr geben
Die Zukunft ist gaa und 3d mit n2 wird gaa eingeführt und n1,8 der letzte node der noch möglich ist 3d chips
Die Spannungsversorgung dessen wird ab n2 eingeführt also front und backside spannung
zur info die realen gate abstände sind aktuell bei etwa 20nm
Die Namen der nodes haben nur bedingt mit den realen daten zutun.
 
BAR86 schrieb:
das heißt halt leider auch, dass die Preise oben bleiben für die aktuellen GPUs weil kein größerer Sprung zu erwarten ist.
nächstes Jahr geht N4P sogar schon in "Mainstream" über. Man sollte also meinen, dass es dann günstiger wird. Eventuell ist es zumindest von den Preisen her mal ganz angenehm, wenn mal wieder eine neue GPU-Generation auf der bisherigen Node bleibt.
 
  • Gefällt mir
Reaktionen: Beg1
Mea Culpa, natürlich das was jetzt als N6 gefertigt wird (und eigentlich 7nm ist) kann natürlich von N4P profitieren. Weniger aber eine 4090 Nachfolge, diese müsste schon in N3 gefertigt sein, damit da ein Sprung drin ist.
 
Cleric schrieb:
Deshalb brauchen wir dringend Intel.
Ohje :D

Wenn ich mir die Quartalszahlen so ansehe, wird Intel das nächste Jahr über schon alle Hände voll damit zu tun haben, nur erstmal den Abstieg zu stoppen. Die CPUs kosten Chip für Chip mehr in der Fertigung als alles was AMD aktuell produziert; das Servergeschäft macht Verluste und steht generell einen Schritt vor dem Abgrund weil Intel's größter Kunde dem Unternehmen die Pistole auf die Brust gesetzt und erklärt hat, dass sie abspringen wenn Sierra Forest auch nur minimalst verspätet launcht; die Grafiksparte um Arc wurde depriorisiert weil man sich die massiven Ausgaben für das Aufschließen zu AMD/Nvidia aktuell nicht leisten kann...

Ich glaub wir müssen erstmal noch eine Weile warten, bis das Imperium zurückschlägt.
 
CB_KeinNameFrei schrieb:
Ich glaub wir müssen erstmal noch eine Weile warten, bis das Imperium zurückschlägt.
Mal abwarten, aber es ist schon ein wenig grotesk, dass AMD auf Intel angewiesen sein könnte. ;)
 
SaschaHa schrieb:
Eigentlich sollten solche Verzögerungen ein Anlass sein, bestehende Hardware auch länger zu nutzen, anstatt in (gefühlt) immer kleiner werdenden Zyklen auf neue Hardware zu upgraden. Von daher sehe ich die Sache ganz entspannt.
Yep sehe ich für mich auch so…

Auch weil die Hersteller wie Apple und Nvidia eh viel zu viel sind.

Reicht auch alle 5-6 Jahre was Neues.

Ich warte auf jeden Fall 2nm GAA mit Backside PD ab. Auch 240Watt USB-C ist was worauf sich das warten lohnt.
 
Ayo34 schrieb:
Dann steigt aber auch der Verbrauch entsprechend mit... der größte Sprung bei Games kann dadurch passieren, dass endlich mal mehr Kerne sinnvoll ausgelastet werden. Dann hätte man auf einmal mit einem 24 Kerner auch die 3fache Leistung wie jetzt.
Das weiß natürlich jeder Softwareentwickler, allerdings ist die Ausgabe von Programmen immer linear. An irgendeinem Punkt, müssen mehrere parallele Spuren wieder zusammengeführt werden, was Last auf einem Kern bedeutet.
Wenn 5 Mechaniker die Reifen wechseln, können 4 Gleichzeitig die Reifen demontieren, müssen aber warten, bis der 5. Mechaniker die Sommerreifen nacheinander aus dem Lager holt. Der kommt ganz schön ins schwitzen...
 
heroesgaming schrieb:
Das bedeutet wohl, dass auch die nächste GPU-Generation auf dem dann weitestentwickelten 4nm-Prozess fußen wird?

Mir soll's recht sein, Nvidia hat mit dem Schritt von Pascal auf Maxwell ja beispielsweise schon mal gezeigt, dass auch eine Weiterentwicklung im selben Node große Fortschritte bringen kann. Dass sich die Architekten in einem gewissen Rahmen bewegen müssen und sich nicht darauf verlassen können, 90% ihres Fortschritts über Verbesserung in Flächen- und Energieeffizienz des Produktionsprozesses zu erzielen, muss nicht unbedingt etwas schlechtes sein.
Da vergleichst du aber Äpfel mit Birnen - oder? War das nicht von Samsung zu &TSMC... Da mag zwar der selbe "Node" dran gestanden haben - aber er war es dann im Zweifel nicht...
 
@Novasun Nein, Pascal und Maxwell wurden beide bei TSMC gefertigt, da bin ich ziemlich sicher. Du denkst an Ampere und Lovelace, nehme ich an?


EDIT: I am sorry, ich denke an KEPLER und Maxwell, nicht Pascal. Die ganzen Physiker machen einen ganz kirre xD
Alle drei kamen von TSMC, Pascal hatte aber natürlich die modernere Fertigung. Mea culpa.
 
Man ist zur Zeit doch absolut on Track! Das Verhältnis bei Zen Leistung/Wärmeentwicklung passt sehr gut und die Leistungssprünge speziell in den letzten 3 Jahren waren mehr als beachtenswert. Alles was man sich jetzt zusammenstellt, wird Leistungstechnisch auch noch die nächsten 4-5 Jahre locker reichen.
 
Dai6oro schrieb:
Gerade bei Stillstand hat AMD imo mit dem Chiplet Ansatz ein heißes Eisen im Feuer, denn unendlich größer können Dies nicht werden, das Problem hast du bei den Chiplets nicht.
Stimmt, allerdings bietet auch die nächste AMD Chiplet GPU Generation gewisse Risiken.
Mit RDNA3 wurde das Chiplet System mit Memory Cache Die (MCD) und Grapic Compute Die (GCD) für GPU zwar eingeführt, allerdings, genau betrachtet, haben wir bisher ja "nur" das halbe Wissenschaftsprojekt auf dem Teller liegen: mehrere MCD zusammen mit nur einen GCD.
Da können wir gespannt sein, ob und was für Probleme es geben kann und leider sicherlich auch wird, wenn mehrere GCD zum Einsatz kommen und ob es vielleicht auch zusätzlich Reibungspunkte zwischen mehreren GCD und mehreren MCD geben kann, sowie natürlich auf die Frage wie schnell, gut und elegant AMD mögliche Probleme lösen muss oder sogar im Vorfeld vermeiden kann.

Ich weiß schon, warum ich hoffe mit meiner 6900xt noch eine weitere GPU Generation, RDNA4, überspringen zu können, denn ich stelle mir das anstehende Vorhaben nicht so leicht vor, so sehr ich mir auch wünsche, dass das direkt klappt, auf Anhieb ordentlich Performance abliefert und dabei auch sehr gerne zeitgleich einen spürbaren, zumindest zum Teil an den Kunden weitergegebenen, Kostenvorteil mitbringen wird.
 
SomeDifferent schrieb:
Das weiß natürlich jeder Softwareentwickler, allerdings ist die Ausgabe von Programmen immer linear. An irgendeinem Punkt, müssen mehrere parallele Spuren wieder zusammengeführt werden, was Last auf einem Kern bedeutet.
Wenn 5 Mechaniker die Reifen wechseln, können 4 Gleichzeitig die Reifen demontieren, müssen aber warten, bis der 5. Mechaniker die Sommerreifen nacheinander aus dem Lager holt. Der kommt ganz schön ins schwitzen...

Das ganze ist natürlich nicht trivial, aber in vielen Anwendungen geht es ja auch. Bei Spielen hängt es häufig einfach mit der Engine zusammen oder es wird von den Entwicklern einfach kein Wert drauf gelegt. Es gibt ja auch Spiele die nur 1-2 Kerne nutzen und Spiele die schon von 12 Kernen profitieren. Ob das dann 1:1 skaliert mit der Anzahl der CPU-Kerne ist ja nochmal eine andere Sache. Aber die Richtung muss da hingegehen, wenn man größere Zuwächse haben möchte.

Aus der Praxis kann ich sagen, dass Dinge gerne einfach wiederverwendet werden und daher sich auch wenig tut. Gleichzeitig schaut man auf die Konsolen und sieht dann da keinen großen Bedarf etwas zu ändern.
Ergänzung ()

catch 22 schrieb:
Anhieb ordentlich Performance abliefert und dabei auch sehr gerne zeitgleich einen spürbaren, zumindest zum Teil an den Kunden weitergegebenen, Kostenvorteil mitbringen wird.

Wenn die Leistung sehr gut wird, dann wird es richtig teuer und wenn es Probleme gibt, dann wird man beim Preis unterhalb Nvidia agieren. Beides zusammen ist Wunschdenken.
 
latiose88 schrieb:
So das die Steigerungen immer kleiner ausfallen werden. Erwarte also keine wunder. Und man darf eben nicht zu viel erwarten weil man sonst entäuscht wird.
Wäre vielleicht mal das Signal das die Software Industrie aufwacht und optimiert.
Rechenleistung ist gerade bei CPUs mehr als genug vorhanden.
 
Zurück
Oben