News Foundry: TSMC strebt 3-nm-Chip-Produktion für 2022 an

Icetea36 schrieb:
Dadurch, dass er SEHR Energiesparend ist, ist das kein Problem. Er verbraucht bei Vollast weniger als ein i9 9900KS.

Da geb ich Dir nur eingeschränkt Recht.
Ich sehe täglich das mein 3700X deutlich wärmer wird als als mein alter 1700X, obwohl er eine um 30W geringere TDP hat.
 
  • Gefällt mir
Reaktionen: Rikimaru
cookie_dent schrieb:
Ich sehe täglich das mein 3700X deutlich wärmer wird als als mein alter 1700X, obwohl er eine um 30W geringere TDP hat.

Und jetzt frage dich mal wieso. Er ist Energiesparender, deutlich sogar. Warum wird er wärmer? Da er eine deutlich kleinere Chip Fläche zum Kühlen anbietet (14nm vs 7nm), wird es schwerer werden den zu Kühlen obwohl er weniger TDP hat.
 
  • Gefällt mir
Reaktionen: NMA, Rockstar85 und Apocalypse
So teuer wie Intel ist im vergleich zu AMD, hätten sie bei der 10k Reihe wenigstens wieder mal L4 Cache einbauen können, zumindest bei den Top Modellen.
 
Icetea36 schrieb:
Und jetzt frage dich mal wieso. Er ist Energiesparender, deutlich sogar. Warum wird er wärmer? Da er eine deutlich kleinere Chip Fläche zum Kühlen anbietet (14nm vs 7nm), wird es schwerer werden den zu Kühlen obwohl er weniger TDP hat.

?? genau das hab ich doch gemeint....
Genau darauf bezog mich mein Post #35 doch.
 
  • Gefällt mir
Reaktionen: Rikimaru
Colindo schrieb:
Wie, TSMCs N3 ist ohne Gate-all-around? Wie wird denn dann der Shrink erreicht? Höre das zum ersten Mal, oder habe es mir falsch aus den bisherigen Artikeln gemerkt.
Anscheinend werden sie erst bei N2 auf GAA gehen.
 
  • Gefällt mir
Reaktionen: Colindo
Colindo schrieb:
Wie, TSMCs N3 ist ohne Gate-all-around? Wie wird denn dann der Shrink erreicht? Höre das zum ersten Mal, oder habe es mir falsch aus den bisherigen Artikeln gemerkt.
Edit: Wurde bisher nie erwähnt, was TSMC bei N3 macht.
Es ist noch nicht lange her, daß TSMC N3 mit FF statt GAA bestätigt hat. Vorher wurde von verschiedenen Seiten her spekuliert, daß N3 GAA ist, aber TSMC selbst hatte tatsächlich nichts dazu verlautbart.

Krautmaster schrieb:
und dann spielen auch solche Techniken mit rein:
CONTACT OVER ACTIVE GATE
Die Gerüchteküche besagt, daß Intel genau das bei 10nm aufgeben mußte. Einer der üblichen Verdächtigen wird bestimmt schöne Schliffe von 10nm-CPUs angefertigt, nette Bilder mit einem Elektronenmikroskop gemacht und diese interessierter Seite für ein kleines Entgelt zur Verfügung gestellt haben...

Krautmaster schrieb:
du siehst ja grad dass die reine Fläche eines Gate / Pitch kaum Aussagekraft hat, für sich gesprochen. Allein weil nebenbei noch ganz andere Faktoren reinspielen. Da müsste man jetzt auch bei TSMC Vergleiche haben...
Reale Werte in Millionen Transistoren pro mm² (übers ganze Die!):
Intel : 22 ~ 16,5 | 14 ~ 44,7 | 14+ ~ 37,2 | 10 HP ~ 67,2 | 10 HD ~ 80,6
TSMC : 16+ ~ 28,9 | 10 ~ 49,1 | 7 HP ~ 52,7 | 7 HD ~ 91,4
Die Angaben für Intel 10FF sind Annahmen (Scotten Jones), da Intel keine Zahlen rausrückt.
Die theoretische maximale Dichte von TSMCs N5 soll 170 MT/mm² betragen, man wird wohl SoCs mit 130~140 MT/mm² erwarten können.

Die Transistor-Dichte hängt sehr stark davon ab, was der Chip leisten soll und wie die Anteile von Analog, RAM und Logik verteilt sind. So gibt TSMC für den N5 eine Steigerung der Dichte gegenüber N7 für Logik um 80% und für Analog 30% an.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, NMA, salzCracker und 2 andere
Joa ich wusste dass Intel mit irgendwas Probleme haben soll. Vielleicht auch mehrere Baustellen. Kobalt ist auch so ein Kandidat.

Mich würde interessieren wie das andere wie TSMC / Samsung lösen und wie deren Fertigung im Detail aussieht.
 
Ob es wohl bis dahin Intel geschafft hat die 10nm zu liefern? Wir dürfen gespannt sein...
 
Was fällt den Fabs eigentlich bei 1nm für neuer Werbeschwachsinn ein ? -1 nm


Sein tun diese alle zusammen schon blöd,
da werden die Werbe nm runter gerastert und was dann als Werbung:cool_alt:

2025 dann TSMC arbeitet an der Weltbewegenden -4 nm Fertigung um diese Serienreif zu machen :lol:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ernie75
Wer neue Fertigungsprozesse entwickeln kann (und das können nicht viele), der kann denen auch komische Namen geben. :)
 
  • Gefällt mir
Reaktionen: Zubz3ro, flym, jemandanders und 4 andere
Wattwanderer schrieb:
Wie lange gibt es schon Multicore Archtiektur angefangen mit Dual Sockel Mainboards und dann Multicore CPU auf Mainstream Desktop? 15 Jahre?
Dual Socket gabs schon in den 90ern im Mainstream. Waren schon damals sehr beliebt bei Hobbyisten für ihre Render Projekte und sind dann erst später aus der Mode gekommen, bzw mehr oder minder rein ins Server Segment verschwunden.

Und schon Quake haben wir dann übrigens mit Multi-Threading rennen lassen, weil schon damals gab es Engines und Software die das konnten und andere die sich nicht die Mühe gemacht haben ... auch kein Wunder, hätte man ja Linux oder Windows NT gebraucht, Consumer Windows hat sich ja sehr, sehr, sehr lange geziert mehr als eine CPU zu unterstützen. Und das war eben die Plattform auf die die meisten alleine wegen der Software setzen "mussten". Klassisches Catch 22. Anderseits gab es auch damals schon Windows NT 4.0 DEC Alpha Edition ... mit iirc 256 thread limit. ^_^

IIRC hat man selbst bei Windows 10 heute noch ein Limitierung auf maximal Dual Sockets.
 
  • Gefällt mir
Reaktionen: jemandanders
KraitES schrieb:
2025 dann TSMC arbeitet an der Weltbewegenden -4 nm Fertigung um diese Serienreif zu machen

Nein, eher kommen dann Picometer. 1nm = 1000pm oder auch Pikometer. bspw:
14nm
12nm
7nm
5nm
3nm
1nm
800pm
500pm
350pm
250pm
150pm
100pm
............. 15 Jahre später
1pm
800femtometer = 0,0008nm
750fm
700fm
......
 
  • Gefällt mir
Reaktionen: Apocalypse
Cool Master schrieb:
Ich erwarte also nicht zu viel in den nächsten ~10 Jahren außer es gibt eine neue Programmiersprache die wirklich voll darauf ausgelegt ist und das OS auch die volle Unterstützung dafür hat.
Die Programmiersprachen dazu gibt es schon seit mehr als 10 Jahren.

Das Problem ist in dem Fall nicht die Programmiersprache, sondern der Programmierer. Es gibt leider immer noch sehr wenige Programmierer, welche verstehen wie das mit der Ausnutzung mehrerer Kerne und dem "nicht blockieren" von Teilbereichen genau funktioniert. Abstraktionen wie "Tasks" helfen da, können aber nicht das ganze Potenzial ausnutzen (Nicht Performance mässig, sondern eine reduzierte maximale Parallelisierung)

Eventuell hilft es auch, dass Javascript inzwischen auch Multithreading kann. Vielleicht können in 5 Jahren dann auch Deutlich mehr Programmierer Multithreading.

PS: C# z.B. bietet "Parallel.for" an, welches einen Loop Parallelisiert. Das ist zwar schon gut, aber eine Korrekte "Manuelle" Parallelisierung ist dennoch schneller und breiter.
 
  • Gefällt mir
Reaktionen: Apocalypse
Cool Master schrieb:
Selbst mit einem 1950X fährt man die nächsten ~5 Jahre noch gut. Solange Software nicht wirklich auf Multikern programmiert wird spielt das eh alles keine Rolle.


ja, wird zeit das man an der effizienz arbeitet.
Ergänzung ()

HardRockDude schrieb:
Wird sie doch. Und muss sie auch. Der Developer, der in Zukunft nicht auf Multicore optimiert, schränkt sich selbst ein.

intel wird alles tun, um das zu verlangsamen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
moRphh schrieb:
intel wird alles tun, um das zu verlangsamen.

Können die ruhig versuchen, ab nächstem Jahr gibt es Zen 3 mit optimierten 7nm und wenn Intel DANN keine 10nm in den Desktop bringt, werden sie zurückfallen. Es gibt selbst für Hochfrequenz Intel Gamer keine Gründe mehr zu Intel zu greifen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben