Vom Preis her wer weiß, von der Haltbarkeit eher nicht. Ok wenn du die CPU nur wenig benutzt dann vielleicht. CPUs werden aber auf ne Lebenszeit von 5-10 Jahren designed. Wenn di die ständig stark schwankend nutzt dann wirst du danach auch immer mehr Ausfälle haben. Insbesondere wenn die Temperaturen hoch sind. 100 Jahre wird sicherlich die eine oder andere CPU aushalten aber das wir sich gegen Nulll bewegen. An sich aber egal, weil kein MB so lange hält 😉lynx007 schrieb:Ich seh schon. Bald kostet ein PC bald wieder 10k. Dafür hält der dann aber auch 100 Jahre.![]()
![]()
Das ist kompliziert und es wird einen sehr sehr sehr handverlesenen Personenkreis geben die das wissen. Vielleicht 10 Leute wenns hoch kommt. Und du kannst da alles mögliche reinschreiben. Sprich versuch erst gar nicht dir da irgendwas zusammenzureimen.lynx007 schrieb:Lass mich da aber gerne eines besseren belehren. Aber das Yield Risko trägt doch der Kunde. Wird niemand gezwungen bei TSMC einzukaufen. Und ich bin mir sicher, wen es nicht in die Kostenstruktur passt, das man auch sagt "wir warten noch". Aber man Bezahlt für Wafer, nicht für funktionierende Chips.
Ähm.. du weißt schon, dass das Volumen mit der dritten Potenz und die Oberfläche nur mit der zweiten Potenz wächst (für ne Kugel)?ArrakisSand schrieb:Bei einer Dicke von geschätzt 25 bis 50 µm und einer Fläche von 70 mm² kann man aber noch einige Schichten übereinander stapeln bis am Ende dabei ein Würfel entsteht.
Bzw. wären dass ca. 1400 bis 2800 Schichten die man übereinander stapeln müsste um einen Würfel dabei herzustellen.
Die Energiedichte der Oberfläche steigt also und da sind wir heute schon am Limit. Sprich du musst die Leistungsaufnahme reduzieren und wenn du nicht nur totes/schwarzes Silizium haben willst müssen zwingend die Taktraten runter. Damit wirst du bei seriellen Problemen aber langsamer und die "Kernflut" ist ja schon heute bei Consumer völlig witzlos und selbst im Server Bereich steigt die Anzahl der Probleme die keinen Nutzen daraus ziehen.
GPUs brauchen massiv Bandbreite und du willst das wegen dem Energiebedarf so nah wie möglich.ThirdLife schrieb:Warum macht das im GPU-Bereich eigentlich keiner ? Müsste ja tendenziell günstiger sein "einfach" 128MB Cache on top auf eine 5090 zu klatschen und sich dafür 100mm² an Fläche zu sparen. Oder wird das schlicht durchs Packaging dann wieder aufgefressen und dient bestenfalls der Leistungssteigerung weil die Chips sonst unrentabel groß werden würden ?
weil SRAM extrem optimiert ist von den Herstellern. Du kannst also Kunde selbst nicht mal Ansatzweise derartig dichten SRAM mit dem bereitgestellten PDK designen. Als Kunde schaffst du vermutlich nicht mal mit DRAM ne höhere BitDichte zu erreichen. Das ist einfach schon mit allen Tricks demnach die man sich nur vorstellen kann, weil es so ne extrem regelmäßige Struktur ist, das man sich da extrem austoben kann und die Fertigung ans Limit prügeln kann.Cabranium schrieb:Warum wird der Sram nicht kleiner, wenn der fertigungsprozess kleiner wird?
Das verstehe ich ehrlich gesagt nicht.
Es gibt aber eben ein Limit unter das man mot EUV nicht kommt und der SRAM ist da schon sehr nah dran. Daher skaliert das fast nicht mehr. Bei normaler Logik ist man vom absoluten Limit noch weiter weg weshalb da noch mehr geht.
vor allem bietet GAA mehr Gain. Du kannst also mit nem kleinen Transistoren mehr beschalten ohne beim Takt runter zu müssen. Da sparst zu mit Logik noch. Für SRAM bringt dir das aber nichts. Da reicht dir der kleinste Transitor schon.
Das kommt noch dazu. Noch kürzer und die schalten nicht mehr ab und schmäler bringt auch nichts wenn die Kontaktvias den Platz eh brauchen.Vitche schrieb:Das "Problem" gibts schon länger, man kann nicht einfach alle Bestandteile eines Chips gleich runterskalieren. Manches geht tendenziell gut kleiner (ALUs/Logik), anderes schlechter (analoge Parts, Spannungsversorgung), anderers inzwischen gar nicht mehr (SRAM). Will meinen, man könnte diese Transistoren zwar mit der heutigen Fertigung durchaus kleiner bauen, aber sie würden dann halt nicht mehr ordentlich funktionieren, aus diversen physikalischen Gründen. Können wir aber vielleicht tatsächlich mal im Podcast drauf eingehen.![]()
Das ist halt auch ein Problem. Via sind im Vergleich zu heutigen Transistoren schon ziemliche Brummer. Aber die haben auch so schon riesige Aspekt ratios. Sprich nich kleiner geht halt nicht. Insbesondere die ViaPads sind ein Ärgernis.
Wir sind halt überall verdammt nah am Limit was machbar ist. Jeder winzige Schritt weiter ist da eine gewaltige Kraftanstrengung