News Kostenexplosion bei 14-nm-Fertigung befürchtet

Dann sollen die Bosse sich halt 1-2 Jahre nur halb so viele Millionen in die Tasche schieben.
Glaube die warten alle dass der Erste anfängt, wo sie sich dann kostengünstig einkaufen können.
 
Rein aus praktischer Sicht frage ich mich, was die nächste Verkleinerung mit sich bringt. Seit einigen Jahren nahm die Zunahme der Geschwindigkeit in Mhz deutlich ab, Temperaturen wurden in Relation auch nicht mehr besser. Einzig ein Zunahme an Cores und zusätzlichen Techniken wurde verbaut. Die will ich bloß nicht schlechtreden, aber mir deucht, das die ehemaligen Vorteile nicht mehr gelten, zumal viele der heutigen Vorteile eher durch die Architektur gelöst werden.

Warum also so zwingend zu niedrigeren Strukturen, wenn die Infrastruktur schon arg hinkt? Wo ist der Deal an der Sache?!
 
Wenn ich sowas lese denk ich immer zu erst daran das die Industrie uns schon auf überhohe ungerechtfertigte Preise vorbereiten will.
 
Volker schrieb:
Dabei gibt es jedoch noch vielfältige Probleme zu lösen, schaffen die aktuellen Maschinen lediglich 20 Wafer in einer Stunde, für eine Massenproduktion würden aber mehr als 100 Wafer die Stunde benötigt.

Laßt mich raten: Gerechnet für die 80.000 Waferstarts/Monat in Dresden?

Volker schrieb:
Passend dazu gab es bereits in der letzten Woche die Aussage, dass bei dem anstehenden Wechsel sowohl auf die kleineren Strukturen, die EUV-Lithografie und zudem noch eventuell 450 mm große Wafer die Hälfte der aktuellen Hersteller auf der Strecke bleiben wird.

Den Wechsel zu EUV-Lithografie und 450mm Wafer hat man ja schon mehrfach nach hinten geschoben. Bei zweiterem würde es mich nicht wundern, wenn das dieses Jahrzehnt nicht mehr kommt, der Umrüstung der noch reichlich vorhandenen 200mm-Werke auf 300mm Wafer dürfte wohl der Vorrang gegeben werden.
 
Zuletzt bearbeitet von einem Moderator:
freacore schrieb:
Dann muss man eben erst mal bei 28nm bleiben und weiter forschen, wenn 14nm so viel Kosten verursacht. Wo ist das Problem?

Viel zu geringe Leistungssteigerung wäre möglich und somit hat man kaum einen Anreiz ein neues Produkt zu kaufen. Mit jedem kleineren Fertigungsschritt kann man ganz von selbst entweder die Leistung steigern oder den Verbrauch bei gleicher Leistung senken.

Qualcom schrieb:
1. Wafer sollen 50% groeßer werden
2. Die strukturbreite soll von heute 22nm (intel) auf 14nm runter >30% Reduzierung
...
Kleinere Chips auf noch groeßeren Wafern mit besserem Werkzeug (EUV).

Aber schoen, dass die Industrie die "Konsumenten" geschlossen auf Preiserhoehungen vorbereiten.

Punkt 1 hat aber einen riesigen Nachteil die R&D-Kosten für 450mm Wafern belaufen sich auf rund 40 Mrd. US-$. Zum Vergleich die R&D-Kosten für einen 22nm-Prozess belaufen sich "nur" auf rund 3 Mrd. US-$
Punkt 2: Nen Chip in 14nm ist um den Faktor ~2,46 kleiner als bei 22nm.

Die Preise steigen exponentiell, mit jeder kleineren Fertigung. Nvidia hat ja auch schon rumgejammert, dass man keinen Kostenvorteil bei 20nm gegenüber 28nm mehr hat.

Kokuswolf schrieb:
Rein aus praktischer Sicht frage ich mich, was die nächste Verkleinerung mit sich bringt.

Weniger Stromverbrauch bei gleicher Leistung oder mehr Leistung bei gleichen Stromverbrauch.
 
henroldus schrieb:
auf einen 14nm Wafer passen mindestens 4mal soviel Chips wie auf einen mit 28nm Technologie.
Wenn die Kosten sich aber nicht mal verdoppeln ist doch alles i.O. komische News.
natürlich wird die Forschung teurer, die Ausbeute steigt aber stärker, sondern würde man es nicht tun.

Die Yield Rate sinkt aber und auf die gehst du nicht ein mit dieser simplen Rechnung. Du gehst davon aus das bei 28nm und bei 14m gleich hohe yield besteht was eben nicht so ist.
 
Voyager10 schrieb:
Die planen ja schon unter 5nm , früher hies es mal bei 10nm ist Schluss ;)
Naja. Irgendwann ist aber wirklich Schluss. Zumindest auf Basis von Silizium, denn schließlich ist ein einzelnes Atom ja satte 110 pm groß. Das bedeutet, dass schon jetzt bei 14 nm die Struktur nur noch aus 128 Atomen besteht. Bei 5 nm sind's nur noch 55.
Viel kleiner geht es dann wirklich nicht mehr und wir müssen uns schnellstens etwas Anderes einfallen lassen.
 
Hallo,

hier wird sich nichts rächen wie einer am Anfang schrieb und es werden auch keine Preise steigen. Ist alles Unsinn. Man kann die Zahlen schieben wie man es braucht. Man kann die Zahlen interpretieren wie man es braucht. Die Investitionen auf 300mm von 200mm war auch teuer und dennoch hat es sich gelohnt. Aber nur für die die den Kostenvorteil brauchen. Das wird jetzt nicht anders sein. Die die unbedingt EUV und/oder 450mm benötigen werden den Schritt tun. 2013 aber sicherlich auch noch nicht. Alle anderen geben sich nachwievor mit 200 oder 300mm zufrieden.

Außerdem wird eh alles bis zum letzten ausgereizt bevor man neu investiert. Und das tut bei EUV auch gut daran um es noch besser zu machen bevor man damit in die Massenproduktion geht und damit richtig investiert. Man schiebt das Thema EUV nicht umsonst immer nach hinten.

Und man muß den Schritt zu 450mm und EUV getrennt betrachten. Beides ist unabhängig voneinander anwendbar.

Hatte mal was gelesen das bei 9 Atomlagen Oxidschicht Schluss ist. Wie klein die Spannung dafür ist stand leider nicht nicht dabei. Bis dahin ist es noch ein Stück. Danach werden Chips aus Kohlenstoffen zusammengebaut. :-)
 
noxon schrieb:
Viel kleiner geht es dann wirklich nicht mehr und wir müssen uns schnellstens etwas Anderes einfallen lassen.

Pringles! (Stapelchips :D)
Ich glaube IBM und 3M forschen gerade danach
 
noxon schrieb:
Naja. Irgendwann ist aber wirklich Schluss. Zumindest auf Basis von Silizium, denn schließlich ist ein einzelnes Atom ja satte 110 pm groß. Das bedeutet, dass schon jetzt bei 14 nm die Struktur nur noch aus 128 Atomen besteht. Bei 5 nm sind's nur noch 55.

Die Siliziumatome haben eine Diamantstruktur. Sprich die Elemtarzelle (Kantenlänge: 543pm) besteht aus 8 Atomen. Somit kommt man bei 5nm (genauer 4,887nm) auf 9 Elementarzellen, also 72 Atome bei 14nm (genauer 13,575nm) kommt man auf 200 Atome.
 
jede neuerung kostet am anfang eine menge geld..war schon immer so und bleibt auch so

aber im endeffeckt ist es mir auch egal..ich kaufe ja nicht jeden tag einen prozessor:rolleyes:

bervor ein prozessor den geist aufgibt zerschiesst sich ehr das board oder der speicher..das sind meine erfahrungen aus 30 jahren...habe hier noch uralte 486er,pentium, pentium ii und pentium iii prozessoren liegen die bis heute noch laufen..der rest ist alledings schon in den heiligen olymp der götter entschwebt :D
 
Zuletzt bearbeitet:
Interview mit Mark Bohr schrieb:
"The next generation, 14," he said, "we're going to have to convert to double patterning to get tighter pitches." Double patterning – as might be obvious – requires an extra step in the lithography process. An extra step – equally obvious – adds extra cost.

But that won't make 14nm chips more expensive, Bohr assures us. "Although wafer cost is going up, it's still being offset by the improved density," he said. "At least for Intel, our cost per transistor continues to go down with each generation on a very steady trend, from 32 nanometers to 22 nanometers to 14 nanometers."
http://www.theregister.co.uk/2012/09/13/mark_bohr_at_idf/

Das spiegelt das wieder, was man Anfang des Jahres gehört hat. TSMC heult rum weil der Yield der 28nm Fertigung zu klein ist, während es bei Intel heißt: Hat besser funktioniert als erwartet.
Wenn man wie Intel im Jahr 8 Milliarden$ in die Forschung steckt und nicht nur 1.3 Milliarden$ wie TSMC, dann zahlt sich das aus.
 
Das Problem ist die Optik die hinter der ganzen Lithografie steckt und die kosten explodieren lässt.
Wären Sie doch zur 157 nm Lithografie übergegangen, die leider aber begraben wurde. Diese hätte zwar auch für höhere kosten gesorgt ist aber nicht so komplex was die Optik betrifft.
 
Dann wirds wohl wieder ein Warten geben wenn Nvidia den neuen 8 Milliarden Transistoren Chip vorstellen wird :rolleyes:
 
Tja... die Effekte der Quantenmechanik lassen grüssen, je geringer die Strukturbreiten werden. Da gibt es nichts zu rütteln daran ;).
 
Wer von euch arbeitet im Maschinenbau oder im Werkzeugbau?
Stellt jemand von euch hochwertige Objektive her oder ist in der Medizintechnik tätig?

Die Entwicklung, Bau und Entstörung immer genauerer Geräte in der Produktion sind nicht durch Marketing zu bewerkstelligen.

Selbst wenn jemand von euch auf die Idee kommt Platinen zu ätzen, so wird er bei dem Prozess erstmals trotz gekaufter Fertigungstechnik feststellen, wie genau man arbeiten muss, weil die ersten Platinen wohl nicht perfekt sind.
Handwerkliche Bildung und das Können müssen vorausgesetzt sein. Auch die wahl der Werkzeuge setzt beim kauf die richtige Wahl voraus.
Bis jetzt hat er aber noch nichts durch Verkauf verdient.

Viele schaffen es nicht mal SMD Bauelemete aufzulöten und selbst mit entsprechender Technik, viele werden da beim kleinsten Preis der eher nicht brauchbaren Werkzeuge aufstöhnen, wird die Industrie ihre eigenen, teuren Investitionen trotz Aktionärsdruck nicht einfach mal abschreiben und aufrüsten.

Hängt euch nicht zu sehr an den Yieldraten auf. Sie zeigen den schnelllebiegen Markt auf, der durch eine Kalkulation eine Produktion erlaubt, oder nicht.
50% Ausbeute sind unbrauchbar, auch wenn es positive Bilanzen erlaubt.
Ein Mikrochirurg, der nur die Hälfte seiner Arbeit erledigt, lässt auch den Patienten sterben.
Und ein ungenaues Arbeitswerkzeug ist genauso gut, wie ein übermüdeter oder nicht fähiger Chirurg, der von seinem Chef nur Auflagen und begrenzte Mittel aufgrund eines Krankenhaus Marktwettbewerbs zur Verfügung bekommt.
 
bu.llet schrieb:
Wer Spielen will investiert lieber 50€ mehr in eine Grafikkarte und dafür weniger in die CPU.
ähm, und womit werden GPUs hergestellt?

rockwell1080 schrieb:
Pringles! (Stapelchips :D)
Ich glaube IBM und 3M forschen gerade danach

gibt es schon lang bei diversen Speichern.
Unten Controller, darüber 4 Speicher lagen.
wird unter anderem in Handys eingesetzt um platz zu sparen.
 
Dann muss MultiGPU eben langsam standard werden genau wie MultiCPU mittlerweile. Nvidia hat den µRucklern ja schon gut einhalt geboten im Gegesatz zu AMD bei der sich 70 FPS wie 30 anfühlten bei meiner HD6990 ;)
 
das sieht aber in dem Fall anders aus:

**NEU** Far Cry 3 im Test: Grafikkarten-Benchmarks mit Crossfire und SLI - Jetzt auch mit Slow Motion-Video **NEU**

Der hohe Hardware-Hunger von Far Cry 3, zumindest mit 4x MSAA, hat uns dazu veranlasst, mit Crossfire und SLI zu testen. Beide Multi-GPU-Techniken laufen mit aktuellen Treibern, sieht man von den üblichen Problemen wie µRucklern und dem verstärkten Input-Lag ab. Gerade das Stottern ist sehr stark und unserer Meinung nach leidet der Spielspaß hierunter deutlich - unsere beiden 60p-Videos demonstrieren dies eindrucksvoll.

Obendrein skalieren SLI nicht ansatzweise mit 100 Prozent, sondern nur mit etwa 65 Prozent - doppelte Leistung durch zwei Karten erreichen Sie ergo nicht, zudem drücken die heftigen µRuckler die Bildrate subjektiv weiter. Crossfire skaliert zumindes in 25x14 besser als SLI (etwa mit 95 Prozent), in 1080p aber nicht und zudem fällt die minimale Bildrate reproduzierbar schlechter aus. Zumindest wenn Sie "nur" in 1080p spielen, ist ein Core i5 oder i7 (Sandy bzw. Ivy Bridge) Pflicht, denn ansonsten bremsen Sie eine Geforce GTX 690 oder zwei Radeon HD 7970 GHz Edition aus. In 2.560 x 1.440 hingegen sind die GPUs der limitierende Faktor, hier reicht bereits ein schneller FX oder übertakteter Phenom II aus um nicht zu bremsen.

http://www.pcgameshardware.de/Far-C...y-3-Test-Grafikkarten-CPU-Benchmarks-1036726/

da ist auch nen schönes Video wo die GTX690 mehr "ruckelt"

@koksii: mal RadeonPro mit dynamischen VSync probiert?
 
Zurück
Oben