News Kostenexplosion bei 14-nm-Fertigung befürchtet

Raptorchicken schrieb:
ein transistor hat beim 28nm prozess eine fläche von 784nm², während ein im 14nm-prozess hergestellter transistor nur eine fläche von 196nm² (also logischerweise genau 1/4 der fläche) einnimmt. also kann man einen prozessor/speicherchip von gleicher komplexität/kapazität auf einem viertel der fläche unterbringen, während die fläche aber nicht mal doppelt so teuer geworden ist (sondern nur um 90%). folglich werden die produktionskosten eines leistungsmäßig vergleichbaren chips mehr als halbiert. also wo ist das problem? :)
Ergänzung ()

die yield-rate müsste sich schon um den faktor 2 verschlechtern, und dann wären wir immer noch bei einem nullsummenspiel.


das stimmt zwar, aber eben nur für die variablen stückkosten.
da fehlt halt leider noch die andere hälfte der produktionskosten, die auch noch auf die chips umgelegt werden müssen.
 
Kostenexplosion bei 14-nm-Fertigung befürchtet

90 Prozent höhere Kosten pro Wafer gegenüber 28 nm
Das stimmt im Kern nicht, da es wennschon heißt, dass zukünftige Verbesserungen nicht zu selben alten Preisen zu bekommen sind.
Oder die Verbesserungen zu selben Preise werden in längeren Zyklen erreicht. Nicht umsonst braucht AMD/GF länger und selbst bei Intel sehe/vermute ich schon länger einen 9Quartals-Zyklus.
Dazu das gerade stattfindende Own-Fabrik-Sterben (siehe Hitaschi-Ausstieg vor 2 Tagen)

Neben 14nm und EUV ist ja auch 450mm nicht zu vergessen.

Die Yields von 14nm, EUV und 450mm werden jeweils kontenuierliche steigen und wenn einer auf EUV und 450mm umsteigt, dann ist die große unbekannte, um wieviel es tatsächlich mehr bringt (effizienter) als im alten Verfahren.

Die Problematik an 14nm, EUV und 450mm ist primär, dass man verkleinerte Strukturen nicht mehr sooooo notwendig hat, wie frührer, da z.b. bri 450mm der Verschnittvorteil von früher wegfällt und mit 28nm schon SoCs möglich sind. (Siehe Quad-SoC-Kabini-28nm @ 75mm²) Bei 20nm sind SoCs bei üblichen CPUs erst recht möglich.
Auch wenn man im alten Verfahren nur mehr schlechte Yields @ 14nm erreichen wird, muss man bei EUV auch einmal erst bessere Yields schaffen.

Auf alle Fälle werden Struktur-Verbesserungen in Zukunft immer mehr kontenuierlich kommen, wie es im GPU-Markt jetzt schon üblich ist und nicht mehr Sprunghaft wie frührer @ CPU-Markt.
 
Matzegr schrieb:
Bevor man einen Chip produzieren kann, muss man ihn erst mal entwickeln und hier haben wir auch einen deutlichen Kostenanstieg.

Ein Chip-Design in 32nm kostet 50-90 Mio. US-$, in 22nm kostet der ganze Spaß schon 120-500 Mio. US-$. Man muss also entweder mehr Chips verkaufen oder man erhöht den Preis.

onkel_axel schrieb:
das stimmt zwar, aber eben nur für die variablen stückkosten.
da fehlt halt leider noch die andere hälfte der produktionskosten, die auch noch auf die chips umgelegt werden müssen.

so wie ich das lese

Zum einen ist dies der stetige Weg zu immer kleineren Strukturen, bei der 14-nm-Fertigung kommt aber erschwerend hinzu, dass die bisher zur Fertigung eingesetzten Tools nicht mehr ausreichend sind respektive dies zwar sein können, jedoch nur mit enormem Kostenaufwand. Die Experten rechnen gegenüber dem aktuellen 28-nm-Prozess mit 90 Prozent mehr Kosten pro Wafer.

sind die fixkosten da bereits miteingerechnet, woraus sich der kostenanstieg aufgerechnet auf eine geschätzte absatzmenge von eben 90% ergibt.
 
Naja. Irgendwann ist aber wirklich Schluss. Zumindest auf Basis von Silizium, denn schließlich ist ein einzelnes Atom ja satte 110 pm groß. Das bedeutet, dass schon jetzt bei 14 nm die Struktur nur noch aus 128 Atomen besteht. Bei 5 nm sind's nur noch 55.
Viel kleiner geht es dann wirklich nicht mehr und wir müssen uns schnellstens etwas Anderes einfallen lassen.

Ein einzelnes Atom mag ja 110 pm groß sein im Mittel - hängt von der Sorte ab (Blei ist z.B. wesentlich größer als Wasserstoff).

ABER - viel entscheidender ist doch das der Abstand zwischen Atomen in einem Metallgitter nicht beliebig klein wird. In Silicium beträgt der Silicium-Silicium Abstand z.B. 235,2pm....
1000pm = 1nm
=> bei 5nm Strukturbreite sind das also ca. 20-25 Atome.

Und diese 20-25 Atome müssen ein ganzen Transistor ausmachen bestehend aus Source, Drain, Isolator und Gate.
http://de.wikipedia.org/wiki/Transistor#Metall-Oxid-Halbleiter-Feldeffekttransistor

Das Gate ist zudem ein Metalloxid (high-K-Metal Gates HKMGs) => Metall-Sauerstoff-verbindungen. Eine Verbindung besteht ebenfalls aus mind. 2 Atomen. Im falle der Metalloxide braucht man aber ein Sandwich aus mind. 3 (nämlich O-M-O Sauerstoff-Metall-Sauerstoff) sonst ists nicht beidseitig isolierend.

Da ist also wirklich nicht mehr viel Platz nach unten - entgegen Robert Penroses Credo "there is plenty of space at the bottom".

Denn mind. "1 Atom" dick müssen die jeweiligen schichten ja sein - selbst wenn man die HKMGs durch wieder etwas anderes ersetzt das nur 1 Atom dick ist.

Also nehmen wir mal 1 Atom Drain, 1 Atom Gate, 1 Atom Source + Isolator drumrum um von anderen Transistoren abzugrenzen dann braucht man also mind. 5 Atome.
Kleiner geht nicht.

Und bei nur 1 Atom sind quantenmechanische effekt im verhältnis zu jetzt RIESIG...dh. man wird schon eher mind. 3 Atomdicke "schichten" brauchen.

also 3x5 = 15Atome (inkl. Isolator oben und unten bzw. links und rechts).

15x 0,235nm = 3,5 nm
(Vorausgesetzt die Atomabstände sind in der Größenordnung des Siliziums, die können jedoch auch größer oder kleiner sein)

Das ist so die Untergrenze die physikalisch mit dieser Technik geht - alles ander läuft schon in Richtung "Quantencomputer".

Ich denke bereits die angepeilten 5 nm sind das ultimative Limit bevor man vor lauter Tunneleffekten nur noch quantenmechanisch arbeiten kann.

Also 2016, spätestens 2020 - müssen dann ganz andere Technologien her um Prozessoren noch schneller zu machen....denn kleiner gibts dann nicht mehr.

Außer man baut bis dahin Quantencomputer die einzelne Elektronen zählen und verarbeiten können, was ich jedoch bei Raumtemperatur für unrealistisch halte und ne flüssig Heliumkühlung für jedermann wirds auch nicht geben.
 
In den 1,5-2 Jahren kann noch viel passieren. Ich glaube aber nicht das Intel den Nachfolger des Core i5-4670K für über 400 € verscheuern wird. So ein plötzlicher Preissprung ist nicht so einfach möglich, man braucht schon ein paar Jahre um die Konsumenten an 90 % mehr Produktpreis zu gewöhnen.
 
aber wenn du das so liest, dann lese ich es so:

in den 90% mehrkosten sind auch schon die tatsache eingeflossen, dass man eben mehr chips pro wafer bekommt.

außerdem darf man die chips nicht auf gleiche leistung / transistorzahl runterrechnen, da stillstand rückschritt ist. und man für gleiche leistung diesen aufwand ja nicht betreiben würde (abgesehen von kostenerstparnis)


deshalb sind es nunmal 90%, die man so oder so interpretieren kann. ohne eine wirkliche detailierte aufgeschlüsselte stückkostenrechnung, kann das keiner von uns mit absoluter sicherheit sagen
 
onkel_axel schrieb:
aber wenn du das so liest, dann lese ich es so:

in den 90% mehrkosten sind auch schon die tatsache eingeflossen, dass man eben mehr chips pro wafer bekommt.

da hast du recht, das ist mir jetzt irgendwie mental entglitten

edit:

nein, ich hatte schon recht, es ist ja die rede von kosten nicht von der umsatzrendite. bei den kosten spielt es zunächst keine rolle wie viel umsatz man dann erzielt, also fliesst die tastache, dass man mehr chips pro wafer rausholen kann NICHT in die KOSTENRECHNUNG mit ein
 
Zuletzt bearbeitet:
Pro Wafer um 90% teuer... Dafür ist pro Wafer die Ausbeute 4x so hoch wie bei 28nm.....
So verstehe ich das.
Und wenn es anders sein sollte...die paar Cent pro Chip lassen den Endkundenpreis kaum explodiere .
 
Zuletzt bearbeitet:
Ich finde das kleiner werden der halbleiter sicherlich gut.
Aber auch denke ich das man schon seit jahren hätte anfangen müssen was komplett neues und innovatives zu entwickeln.

Was bei den ersten Finalphasen sich mit der jetzigen Tech mithalten kann und sich einfacher und kostengünstiger weiterentwickeln lässt.

Aber wenn es so einfach wäre, stimmts :D
 
ich_nicht schrieb:
Ich glaube aber nicht das Intel den Nachfolger des Core i5-4670K für über 400 € verscheuern wird. So ein plötzlicher Preissprung ist nicht so einfach möglich, man braucht schon ein paar Jahre um die Konsumenten an 90 % mehr Produktpreis zu gewöhnen.
So ist es.
Der reine Core-Anteil eines CPUs ist schon fast lächerlich klein.
Teuer ist wennschon der Rest, wo z.b. der iGPU-Anteil bei Hasswell wie Trinity/Llano einen beträchtlichen Teil ausmachen.

Und die Leute werden sicher nicht die doppelten CPU-Preise zahlen, um doppelte GPU-Performance zu erhalten, während die CPU-Performance kaum noch steigt.
Genauso werden die Leute wegen stark verbesserte CPU-Effizienz (und GPU-Effizienz) nicht doppelte CPU-Preise aktzeptieren, wenn Hasswell genauso schon 10/13/17W-TDP schafft.
Bestes Beispiel ist ja, der schwer anlaufende Ultrabook-Markt, der dann erst mit niedrigen Massen-Preisen (600-800$) so richtig anlaufen wird.
 
@ Raptorchicken
Die Finanzierung ist eine rein theoretische Aufgabe, die nicht in erster Linie mit der ausführenden Abteilung aus Entwicklung und Forschung abgesprochen wird und das Produkt selbst und den Markt beinhaltet. Dahinter stehen Investoren, die Geldgeber, die aus dem Produkt Rendite holen wollen und der Mann muss mit den Daten arbeiten, die für den Investor rentabel sind.

Da berechnet keiner die Resourcenknappheit und Nachhaltigkeit.
Aus diesem Grund haben ja viele mehrere PCs im Haus und für die Entsorgung wollen sie wie es die habgierigen Hersteller nun mal selbst sind, einen Gewinn für sich einstecken.
Mit ein Grund, warum im PC Gold seltener oder technologisch effizienter aufgetragen wird. Sicher nicht aus Knappheit. Wer keinen Zugang zu Gold hat, setzt auf andere Metalle und wird dann aufgekauft.

Zudem jemand, der Ausschuss von 50% oder mehr als finazierungs-, und marktfähig sieht, wie auch im Endkundenmarkt als akzeptabel, der produziert sicher kein gutes Produkt und bietet seinen Angestellten auch keine gute Grundlage der bildenden Arbeit oder Ausbildung, wenn einige Jahre später die Produktion dem Markttrend folgend wieder fortschrittlicher sein muss und das alte Produktionsverfahren nur unerheblich verbessert wurde und weichen muss. Mit dem Neuen wird es auch als Grundlage nicht besser, da die Grundlage Schnelllebiegkeit am Markt ist.

Oder eine Buchhaltung die zu 50% richtig rechnet ist sicher nicht vom Arbeitgeber gewünscht oder wird als gut ausgebildet eingestuft, auch wenn sie zum Vorgänger deutlich effizienter in der gleichen Zeit arbeitet und vierfachen Gewinn einfährt. Oder doch? ;)

Erinnert so an Toyota. Günstig, effizient und viel. Nur ohne funktionierende Lenkung und wir wissen gegen was der Kapitalmarkt gefahren ist und wie gerettet werden musste.

Die Überschrift lautet in der Tatsache Kostenexplosion.
Wenn ich Kosten habe, drucke ich Geld um die Kosten zu decken, weil um alles Andere geht es ja sowieso nicht, ausser Geld.
Dann braucht es dann keine Folien der Statistik und einen indischen Mitarbeiter mit MS Office Zerifikaten, den man noch dafür zum Hungerlohn belohnen muss.

So einfach kann das Leben sein.:)

Mal ehrlich, wofür brauchen wir baldmöglich in den eigenen Haushalten 14nm auf einem Chip?
Kommt nicht mit Smartphones, da sich die Hersteller mit Gewinnen eindecken und die Vorteile durch Einsparungen an anderen Stellen wieder gestrichen sind.
Militär, damit man intelligenter für seine Interessen töten kann?
Leistungsfähigere Großrechner für die nächste verspekulierte Finanzkrise oder Klimamodelle? Viele kennen nicht mal einen Mülleimer und seine Aufgabe. Aus Kostengründen ist es einfacher die verarbeitenden Rohstoffe asl Müll in die dritte Welt zu verfrachten.
Medizin, damit man aus abgegeber Eigenverantwortung seine Gesundheit dem PC überlässt und sich selbst gehen lassen kann? Keine Sodomie, oder Völlerei, dann gibt es auch keine Krankheiten.

Wir sind entfernt mit kleineren Strukturbreiten auch nur annähernd das Gehirn nachzubilden, da es selbst von vielen nicht verstanden wird und nun versucht man innerhalb von 80 Jahren auf diese Größen zu kommen und gleichzeitig die Softwarentwicklung in die Hände von App Entwicklern zu legen. Was für ein Ürodukt kommt da wohl raus?

Eben auch viele Anwedungen, die Mehrkernunterstützung aufweisen, können sich viele Nutzer nicht leisten, geschweige ihren Wert umsetzen. Ebenso sind viele Anwendungen erst recht nicht für heutige Möglichkeiten einer CPU entwickelt. Leistung und Arbeitsspeicher brauche ich mittlerweile für die vielen Werbeeinblendungen.

Also wozu schnell 14nm? Ich kann nicht mal meine 65nm ausreizen und die sind schnell bei mathematischen Berechnungen im normalen Leben. Ich kann mein Gehirn längst untrainiert lassen.:D

Bestes Beispiel ist ja, der schwer anlaufende Ultrabook-Markt, der dann erst mit niedrigen Massen-Preisen (600-800$) so richtig anlaufen wird.
Schon mal die intel Werbung gesehen? Tablet oder Notebook, nein ein Ultrabook.
Das ist Werbung für die gesellschaftliche Zombiekultur ohne Bildungshintergrund.
Eine kleinere CPU Strukturbreite verändert nicht die wirtschaftliche Unternehmensgrundlage.
Convertibles und Notebooks sind ein schon erfundenes Rad und mit dem Northwood und anderen Heizern hat intel im eigenen GHz Rennen nicht den großen Nutzen für den Verbraucher im Sinn gehabtm, denn man jetzt versucht mit Ökotechnik einzureden.

Bei hochintegrierter Hardware brauchst du auch geschultes Personal, die es verbauen kann. Für 600€ kannst du ja gerne deinen Stundenlohn berechenen, wenn du unter der Lupe arbeitest und Teile der Geräte müssen den allgemeinen Werbeansprüchen an Qualität teils in Reinräumen zusammengebaut werden. Setzt auch an Mitarbeiter bei der Miniaturtechnik ruhige Hände voraus. Nach 12Std. Schichten im Arbeitslager bist du im halben Jahr sicher nicht ruhig, wenn dir 10 Arbeitslose Job streitig machen können.
 
bu.llet schrieb:
Das Problem das die Branche hat ist auch, dass noch schnellere Rechner immer weniger Nutzen bringen.

Heutige SoCs haben schon "zu viel" Power für Office und Multimedia. Wer Spielen will investiert lieber 50€ mehr in eine Grafikkarte und dafür weniger in die CPU.

In Zukunft wird sich das ganze noch verschärfen und wenn dann Spiele aus der Cloud gestreamt werden ist es ganz vorbei mit dem Leistungshunger im Haushalt.

Es gibt aber noch andere Bereiche als SPIELEN und MULTIMEDIA.

Und deine Clouds brauchen auch CPU/GPU POWER. Desto mehr umso besser!

Meines erachtens entwickelt sich alles zu langsam, seit ca. 2004 und das umschwenken auf konsolen kommt es mir vor als würden wir immer langsamer werden.

Meines erachtens müssten Hersteller wie Intel/ARM noch enger mit Softwarherstellern arbeiten um viel performantere systeme für endkundenmarkt herzustellen.

Bevor ich sterbe will ich mein puff-star-trek-holodeck!
 
Ein einzelnes Atom mag ja 110 pm groß sein im Mittel - hängt von der Sorte ab (Blei ist z.B. wesentlich größer als Wasserstoff).

ABER - viel entscheidender ist doch das der Abstand zwischen Atomen in einem Metallgitter nicht beliebig klein wird. In Silicium beträgt der Silicium-Silicium Abstand z.B. 235,2pm....
1000pm = 1nm
=> bei 5nm Strukturbreite sind das also ca. 20-25 Atome.

Wie schon beschrieben, ist es nicht so einfach --> Diamantstruktur und es kommt auf die kristallographische Richtung an.

Und diese 20-25 Atome müssen ein ganzen Transistor ausmachen bestehend aus Source, Drain, Isolator und Gate.
http://de.wikipedia.org/wiki/Transis...fekttransistor

Nein, es geht bei der Angabe des Technologieknotens nicht um die Breite eines ganzen Transistor, sondern --> wikipedia hilft
Die Technologieknotengeneration wird in Form eines Zahlwertes beschrieben, der sich auf den sogenannten „half pitch“ (dt. halbe Teilung) von DRAM-Bauelementen bezieht, beispielsweise dem halben Abstandsmaß zweier Leiterbahnen bzw. Kontaktlöcher einer periodischen Struktur in der ersten Verdrahtungsebene

Bisher (vor 22 nm) war die Gatelänge(!) meist kleiner als der Technologieknoten vorgab, aber bei Intel mit 22 nm hat sich das wohl schon geändert und ist wieder größer.
http://www.halbleiter.org/technologie/hp22/
--> Gatelänge schon mehr als 22nm, also ist der ganze Transistor größer.

Das ist so die Untergrenze die physikalisch mit dieser Technik geht - alles ander läuft schon in Richtung "Quantencomputer".

Ein Quantencomputer ist was gaaaanz anderes ;-) --> Mathematiker/Physiker fragen
(Und ich hab auch wenig Ahnung)

Ich denke bereits die angepeilten 5 nm sind das ultimative Limit bevor man vor lauter Tunneleffekten nur noch quantenmechanisch arbeiten kann.

Mit Quantenmechanik kann man auch ganz makroskopische Effekte beschreiben z.B. sowas wie elektrische Leitfähigkeit :-)

Also 2016, spätestens 2020 - müssen dann ganz andere Technologien her um Prozessoren noch schneller zu machen....denn kleiner gibts dann nicht mehr.

Da würde ich mich nicht festlegen, man weiß nie was kommt. Aber ein Ausweg könnten gestapelte chips sein (wurde schon angemerkt). --> Führt zu kürzeren Wegen, geringeren Latenzen, kleineren ohmschen Verlusten etc. Es gibt ja schon erste Speichersachen (hybrid Memory cube wäre ein Beispiel), die sowas ausnutzen. Ist für sowas komplexes wie Prozessoren, aber wohl noch etwas früh.
 
[F]L4SH schrieb:
Nun... Die Hersteller schieben EUV schon viel zu lange vor sich her. Und nun rächt sich das....

Aha, was würdest du als Unternehmer machen?Richtig, erst mal die gigantischen Entwicklungskosten reinholen und in die Gewinnzone fahren. Und das erwirtschaftete Geld für die Entwicklung in den nächsten Prozess investieren!

Zudem tauchen bei Verkleinerungen der Strukturen immer mehr Probleme auf (verstärkte Quanteneffekte, Leckströme, die durch Tunneleffekte hervorgerufen werden, etc.):
-Generierung monochromatischer Strahlung auf eine bestimmte Wellenlänge mit ausreichender Intensität und Stabilität
-Fokussierung und Intensitätssteigerung des "Lichtstrahls" (korrekterweise elektromagnetischer Wellenlänge). Linsensysteme/Kollektor müssen effizient und höchstpräzise gefertigt werden. Stichwort: Toleranz
-Absorptions- und Streuprobleme: sämtliche Atome werden bei diesen Wellenlängen ionisiert. Also muss das ganze unter Vakuum betrieben werden. Dann betreibe mal Hochleistungspumpen, die eine Flüssigstickstoffkühlfalle haben (sonst kriegst du den Druck einfach nicht weit genug runter). Kannst dir vorstellen, dass tonnenweise Flüssigstickstoff gekauft werden muss.
-Toleranzen werden immer enger/kleiner: schon mal überlegt wie man die Qualitätskontrollen macht?Messgeräte mit hohem Durchsatz bei der Analytik?Man kann sehr wohl kleine Abstände, Schichtdicke, etc. bestimmen; nur hast du dich mal gefragt wie lange das alles dauert?Wie fertigst du die entsprechenden Werkzeuge mit der gewünschten Toleranz?Eine Pfeile und Elektronenmikroskop oder wie?Exakte und schnelle Steuerung der Werkzeuge auf die gewünschte Position...mal überlegt wie das zu bewerkstelligen oder zu gewährleisten ist?
-Fotolacke: du kannst die bisherigen Fotolacke nicht verwenden, weil sie schlichtweg nicht für diese Wellenlänge konzipiert sind. Da sind Chemie-Konzerne gefragt, was sie herzaubern können; klar, dass die neuen Fotolacke viel teurer sind als die bisherigen Fotolacke, weil die Chemie-Unternehmen Prozessentwicklungen- und verbesserungen betreiben müssen.
-Labor und großtechnischer Maßstab sind zwei paar Schuhe: Beim Upscaling des Prozesses entstehen neue Probleme, da plötzlich neue unerwünschte Effekte auftreten können. Was meinst du, warum Pilotanlagen gebaut werden?Damit man nicht gleich Milliarden Dollar/Euro in den Sand setzt, wenn die Anlage doch nicht wie gewünscht funktionieren.

Bevor man so was unzutreffendes schreibt, sollte man lieber mal vorher überlegen, warum es so teuer wird, warum es so schwer ist, etc.
Machbarkeit ist nicht alles...die wirtschaftlichkeit spielt leider auch eine große Rolle.
Leider ist auch so, dass die Kosten bei Strukturverkleinerungen exponentiell steigen (werden). Ich bin dankbar, dass es so kreative Menschen auf der Erde gibt, die mit ihrem Know-How die Forschung und Entwicklungen derart vorantreiben!Größter Respekt!


Und wenn du dich etwas mit Physik beschäftigt hast, ist dieses Zitat zutreffend:

yaegi schrieb:
Heisenberg lässt grüßen. Bald ist Schluss, Jungs! :D


Rob83 schrieb:
Dann sollen die Bosse sich halt 1-2 Jahre nur halb so viele Millionen in die Tasche schieben.
Glaube die warten alle dass der Erste anfängt, wo sie sich dann kostengünstig einkaufen können.

Die paar Millionen sind Peanuts für die kommenden Entwicklungskosten....
 
Zuletzt bearbeitet:
wenns zu teuer wird, dann werden eben mehr Hersteller bei den Alten Techniken bleiben.
irgendwas muss man ja mit den 28nm Fertigungsstraßen tun wenn die Heuschrecken zum 20nm Prozess weiter gezogen sind.
 
Raptorchicken schrieb:
...
die yield-rate müsste sich schon um den faktor 2 verschlechtern, und dann wären wir immer noch bei einem nullsummenspiel.

Soweit ich es verstanden habe (und ich bin bei weitem kein Experte!) soll genau das der Fall sein. Und der Yield dramatisch einbrechen, Faktor 2 wäre da noch eher positiv. Aber wie gesagt bin da nicht der Experte für und wahrscheinlich der falsche Ansprechpartner.
 
yaegi schrieb:
Heisenberg lässt grüßen. Bald ist Schluss, Jungs! :D

noxon schrieb:
Naja. Irgendwann ist aber wirklich Schluss. Zumindest auf Basis von Silizium, denn schließlich ist ein einzelnes Atom ja satte 110 pm groß. Das bedeutet, dass schon jetzt bei 14 nm die Struktur nur noch aus 128 Atomen besteht. Bei 5 nm sind's nur noch 55.
Viel kleiner geht es dann wirklich nicht mehr und wir müssen uns schnellstens etwas Anderes einfallen lassen.

Matzegr schrieb:
Die Siliziumatome haben eine Diamantstruktur. Sprich die Elemtarzelle (Kantenlänge: 543pm) besteht aus 8 Atomen. Somit kommt man bei 5nm (genauer 4,887nm) auf 9 Elementarzellen, also 72 Atome bei 14nm (genauer 13,575nm) kommt man auf 200 Atome.

Helios_ocaholic schrieb:
Tja... die Effekte der Quantenmechanik lassen grüssen, je geringer die Strukturbreiten werden. Da gibt es nichts zu rütteln daran ;).


Von EUV-Lithographie reden sie schon sehr lange. Das dort eine "Mauer" wartet, ist auch nicht neu. Man hat mit Verbesserungen an den bisherigen Prozessen die Einführung von EUV sehr weit rauszögern können. Aber irgendwann geht es nur noch mit EUV-Lithographie weiter.

Und auch EUV-Lithographie wird irgendwann an physikalische Grenzen stossen. Spätestens bei einzeln nebeneinander angeordneten Atomen ist Schluss. Von den Quanteneffekten her vermutlich schon früher.

Ob "Moore's Law" in den nächsten 1-2 Jahrezehnten noch Bestand hat?

Vom Quantencomputer redet man auch schon lange. Ich kann mir aber kaum vorstellen, dass so schnell einer bei mir auf dem Schreibtisch steht.


Vergessen sollte man aber nie, dass wir heute bereits brachiale Rechenleistung zum Discountpreis kaufen können. Aktuelle Systeme lassen für alltägliche Aufgaben nur noch wenige Wünsche offen. Um beim Gamen würde effizientere Programmierung wohl weit mehr bringen als die nächsten ein bis zwei Prozessgenerationen. Z.B. eben mal nicht schludrige Konsolenportierungen, sondern Games, welche die Eigenschaften der Hardware auch optimal nutzen.
 
Hades85 schrieb:
Es gibt aber noch andere Bereiche als SPIELEN und MULTIMEDIA.
Alles andere ist Profi-Segment und da sind Preise nebensächlich.
Hades85 schrieb:
Und deine Clouds brauchen auch CPU/GPU POWER. Desto mehr umso besser!
In der Cloud geht Power auch über Masse. Zu Hause nicht.
 
Drexel schrieb:
Irgendwie werden die physischen Grenzen eh immer weiter verschoben. Das das nicht billiger wird ist klar. Aber teuer bei mehr Effizienz ist doch nach einfacher Rechnung unterm Strich gleich teuer oder? Außerdem müssen die immer sinkenden Preise irgendwann mal ein Ende haben, sonst gehen die Hersteller irgendwann Pleite. :)

Ja, die Hersteller stehen kurz vor der Pleite, vor allem Intel. Stark bedrohtes Unternehmen kurz vor der Insolvenz. Schrumpfende Marktanteile, insbesondere im x86-Markt. Schrecklich, wie sich alle von Intel abwenden… :freak:
 
Zurück
Oben