News DARPA: „Moore's Law“ möglicherweise nur noch bis 2020

AMINDIA schrieb:
Wie ich ja schon schrieb, eine für mich sehr sehr schlechte News für Intel. Eigentlich müsste der Intel Aktienkurs durch solche Meldungen fallen, weil eine schlechte Prognose ausgesprochen wird.
Da kann ich auch in diesem Bereich nur Zustimmen, weil gerade ich schon seit Quartalen auf eine eventuelle 14nm-Verschiebung auf Mitte (Juni/Juli) 2014 betone und mit diese Topic-News-Aussage ja nur die Probleme anspricht, die gewisse Konzerninterne Leute erst ab 2020 sehen.

Der Grund, warum Aktionäre es nicht tragisch sehen ist, weil sie nicht so in die Zukunft schauen, während die Intel-Leute vielleicht die Zukunft genauso optimistisch sahen, wie sie es taten, bevor die PC-Flaute eintrat.

Deine erwähnte PC-Flaute von 2 Quartalen betrifft ja die Globale, während man die PC-Flaute in Europa eben schon viel länger (einige Quartale) sehen konnte. AFAIK seit 2011, wo die "Griechenland-Krise" begann.

Der Umstieg auf 14nm wird wahrscheinlich noch (recht) Unproblematisch sein, weil die PC-Flaute & CPU-Stagnation sowie der direkten Konkurrenz (Jaguar & HSA & Steamroller) noch recht jung sind bzw. noch nicht am Markt sind, aber so richtig wird man es wohl beim 10nm-Umstieg zu sehen sein.

Zwar wird die nächste Architektur wieder Verbesserungen bringen, allerdings gehe ich nicht davon aus, dass die Leistung mehr als +10% betragen wird. Gut die maximale Stromaufnahme wird wieder sinken, aber für die Masse der Desktop User, deren Kisten eh nur so dahin ideln auch unbedeutend.
Selbst Architektur-Verbesserungen beschleunigen die oben angesprochenen Fertigungs-Problematik, wenn eine Architektur um sagen wird +10% steigt, weil der Takt (und Spannung) dann nicht mehr erhöht werden muss, um etwas mehr CPU-Performance zu bekommen, während dann die nächsten Fertigungs-Verkleinerungen ausschließlich für geringeren Stromverbrauch genutzt werden kann.
Selbst der Geringe Stromverbrauch war schon früher möglich, was man bei Banais vor 10 Jahren an den ULV- (7W) LV (12W) und Standard (22-24W) sehen kann, die mit 1,0 bis 1,7 Ghz zufällig den heutigen Basis-Takte der Ultrabook-CPUs entspricht.
Aber der Unterschied zu damals ist, dass die CPU-Performance für die Masse heute bei 15W-TDP-CPUs (Entspricht den damaligen 7W-CPUs) völlig ausreicht.

Das Problem wird für Intel sein, dass die Leute kaum die teuren CPUs weiterhin zahlen werden, nur wegen einer höheren Effizienz unter Vollast.
Schließlich sind die Akku-Zeiten mit Hasswell @ Teillast schon sehr gut und die Notebook-Dicke dieser 15W-CPUs schon so dünn, dass da kaum noch dünner geht, weshalb der Umstieg auf 14nm eher für Technik-Freaks (& Server-User) interessant wird.

Ich denke, dass Intel weitere Gewinneinbußen haben wird und somit immer weiter an Vorsprung verlieren wird.
Jupp,
wobei das erst nach dem Weihnachtsgeschäft sowie einen Halbwegs guten Kaveri über den Verlauf des Jahres 2014 schon zu erkennen ist.
Und das wird man auch offensichtlich nur daran erkennen, wenn der Personal-Stand & Investitionen verkleinert werden müssen, um einen Gewinn zeigen zu können.
 
Lächerlich... Immer diese "Oh mein Gott! Wir sind bald an der Grenze!" bzw. "XYZ reicht nur noch bis ins Jahr 20XX"-Meldungen kann man nehmen und in die Tonne treten. Das beste Beispiel hat sich intel doch selbst geliefert. 3D-Transistoren. Not macht erfinderisch. Und wirklich an Alternativen wird meist erst dann gearbeitet wenn der Hut brennt. Als Paradebeispiel: So wird auch Öl nie ausgehen, nur irgendwann wird es ganz von selbst so teuer, dass man es künstlich herstellen kann (wie es auch schon im 2ten Weltkrieg notwendig war).
Wieviel man noch durch andere Optimierungen rausholen kann muss sich erst noch zeigen. Ein Transistor ist qasi nur ein elektrisches Relays. In der Elektrotechnik gibt's noch zig andere Bauelemente die sich eventuell eignen um für Rechenoperationen benutzt zu werden. Alternative Techniken gäbs dann auch noch. Der Prozessor muss ja nicht zwangsläufig nur ein paar mm³ groß sein. Das ist bei der aktuellen Technik lediglich nötig um die Kosten und die Verlustleistung in Grenzen zu halten.
Als man noch Lochkarten-Systeme benutzt hat, wird sicher auch irgendwer gesagt haben: Irgendwann sind wir bei 0,5mm angekommen, weniger geht wegen der Stabilität nicht... :rolleyes:
 
Zuletzt bearbeitet:
HighTech-Freak schrieb:
Lächerlich... Immer diese "Oh mein Gott! Wir sind bald an der Grenze!" bzw. "XYZ reicht nur noch bis ins Jahr 20XX"-Meldungen kann man nehmen und in die Tonne treten. Das beste Beispiel hat sich intel doch selbst geliefert. 3D-Transistoren. Not macht erfinderisch. Und wirklich an Alternativen wird meist erst dann gearbeitet wenn der Hut brennt.
Das hat auch keiner Verneint und Topic sind Struktur-Verkleinerungen @ Moores Law-Gesetzt (2-Jahres-Rythmus) und nicht Stopp bei Transistor-Technologien.

Das Problem zu früher ist trotzdem, dass die CPU-Performance für die Masse völlig ausreicht, während früher Lochkarten & Co eben nicht von der Masse leistbar war.

Als Paradebeispiel: So wird auch Öl nie ausgehen, nur irgendwann wird es ganz von selbst so teuer, dass man es künstlich herstellen kann (wie es auch schon im 2ten Weltkrieg notwendig war).
Nach der Erfindung der Glühbirne dauert es trotzdem 100 Jahre, bis es von LEDs entgültig (ab 2015) abgelöst wird, sowie wird durch die "ÖL-Krise bzw. ÖL-Knappheit" wieder jene Hybrid & Elektro & Bio-Sprit-Auto-Technologien entwickelt, die es schon vor 100 Jahren gab, sowie wieder mehr auf Fußverkehr & Rad-Verkehr & Öffi-Verkehr (=Zeit vor dem ÖL-Zeit-alter) setzt
Bei Transistoren kann man eben nicht auf Technologien zurückgreifen, die man schon vor 100 Jahren entwickelt hat, weshalb dieser Vergleich schon schwer geht.

PS:
In der Zeit von Aktiengesellschften ist gerade beim Platzhirsch ein Technologischer Fortschritt sehr wichtig, damit sie der Konkurrenz einen Sprung voraus sind, um ihre Marktanteile & Preise halten können.
Und wenn Intel quasi selber sagt, dass sie in wenigen Jahren einen Stillstand erleben werden, dann ist diese Nachricht vorallem schlecht für sie, weil die Konkurrenz ebenfalls weiterentwickelt und dann nachziehen kann.

Und genau bei den 450mm-Wafer sieht man diesen Technologie-Stillstand schon lange, nachdem 450mm gigantische 17+ Jahre nach 300mm kommen soll sowie Intel 450mm im G450C mit der Konkurrenz (Samsung, Globalfoundries, TSMC & IBM,...) mitentwickelt und so keinen Vorsprung mehr holen kann, wie es bei 300mm war.

https://www.computerbase.de/2002-02/idf-intel-produziert-0.13-u-cpus-auf-300-mm-wafern/
Intel hat schon seit 2002 auf 300mm umgestellt, während AMD erst 2006 begann, womit Intel da einen 4 Jahres-Vorsprung hatte.

Und am Schluss muss es sich zeigen, ob Intel bei neuer Fertigungs-Technologie, die den Transistor ersetzt, überhaupt noch Platzhirsch ist. Denn in der Lochkarten-Ära war IBM der Big-Player.
 
Auch wenn Intel schlimmstenfalls einen Stillstand bei der Strukturbreite (und Transistortechnologie) erleben sollte, zumindest an den Herstellungskosten wird sich immer etwas tun: wer fünf Jahre mit der selben Strukturbreite fertigt, hat's irgendwann so drauf dass so gut wie jeder Wafer komplett homogen* und nahezu jeder Chip voll funktionsfähig ist. Ergo gehn die Kosten runter...

Das größere Problem der traditionellen CPUs ist glaube ich auch eher der Umstand, dass wir so langsam ein Niveau erreicht haben wo selbst eine vergleichsweise günstige CPU bereits 2-4 Kerne besitzt und über Jahre hinweg für den Normalbetrieb (damit meine ich Office und Internet) mehr als locker ausreicht. Unter anderem deswegen ist Intel ja auch so am mobilen Markt, also Chips für Tablets und Mobiltelefone, interessiert während AMD sich stark auf APUs konzentriert, die eine Abkehr vom klassischen zwei-Chip-System aus CPU und dedizierter Grafikkarte darstellen.
Dass in X Jahren bei y nm und der aktuellen Transistortechnologie schluss sein wird ist dagegen erstmal nur für die High-End-CPUs relevant...


*die Wafer-Homogenität hat natürlich erstmal nichts mit der Strukturbreite zu tun, aber gleichzeitig zu immer kleineren Transistoren werden auch immer größere Ingots verlangt, dh man hat eigentlich gleichzeitig zwei Baustellen, die als Fehlerquellen dienen.
 
Im Grund brauchen wir mehr und vor allem bessere Programmierer. Sie müssen den Hardwareaufbau bis in kleinste Details verstehen und jede Code Optimierung umsetzen. Schon heute liegen viele Hardwareoptimierungen per Befehlserweiterung brach, weil es nicht die "Programmierer-Kapazität" gibt. Immer *schnellere* Chips werden dieses Problem nur eingeschränkt lösen. Ich selbst habe einige Zeit an einer CFD Simulation für parallele Hardware gearbeitet. Meine Erfahrung ist jedenfalls, dass in vielen Codes noch gigantische Optimierungspotentiale schlummern.
 
Das ist richtig.
In Zeiten, wo die Ressourcen nicht mehr weiter gesteigert werden kann, wird einfach mit den aktuellen Ressourcen/Möglichkeiten effizienter umgegangen. Um solche Zeiten vorzubereiten, gehören solche Ankündigungen wie in Topic-News dazu. Deshalb werden wird auch nicht diesen Entwicklungs-Änderungen in der Hardware 2020 spüren, weil neben der Programier-Einstellung sowie Fertigungs-Entwicklung (Priorität in neue Technoloigen (SiGe, Multi-Pattern, FinFET, EUV, ...) statt pirmär in Verkleinerung) sich schon früher auf dieses Ereignis vorbereiten.

Und genau das kann man vielleicht mit Hawaii schon in Kürze sehen, der mit üblicher Fertigungs-Entwicklung in 20nm kommen sollte.
Wenn Hawaii jetzt in 28nm kommt, dann ist es nichts anderes wie in der Topic beschrieben, dass es aus ökonomischer Sicht nicht mehr möglich ist das Moores Law-Gesetz mit 24 Monate Struktur-Verkleinerungs-Rythmus zu halten.
Genauso wie Kabinis 20nm, der statt Mitte 2014 vielleicht doch erst Ende 2014 oder Anfang 2015 kommt.

Ich habe schon länger das Gefühl, dass TSMC sich schon längst auf den sogengannten 2020-Zustand eingestellt hat, während Intel mit 14nm noch mit aller Kraft & Reserven versucht, die 14nm-Fertigung Mitte 2014 rausbringen zu können, was man an den non-Konkreten 14nm-Terminen sowie den 14nm-Gerüchten von Mitte 2014 und Ende 2014 sieht.

Intel wird IMO 14nm für die Masse recht problemlos noch einführen können, und so Intel den Intel-Fertigungs-Mythos aufrecht zu erhälten.
Aber danach wird es für jedermann sichtbar.

Der Mythos, dass AMD die Fabriken primär bzw. nur wegen der Geldbeschaffung gekauft hat, und nicht wegen dem riesen Problem zukünftiger Fertigungs-Entwicklungen hat sich für die Masse auch erst letztes Jahr als Falsch erwiesen.
 
2020 ist noch lange nicht Schluss und ihr wollt schon auf dem Stand stagnieren und den letzten Rest aus den CPUs durch Programmoptimierung rausquetschen. Die CPU Welt geht 2020 nicht unter, nur die bisherige Vorgehensweise funktioniert nicht mehr....
 
Zuletzt bearbeitet von einem Moderator:
Hat ja auch keiner Behauptet.
Aber der Umstieg auf 450mm zeigt halt, dass zukünftige Intervalle einfach & deutlich größer werden.
U.a. deshalb, weil der Nutzen bei weitem nicht mehr so groß ist, wie es damals war.

Anstatt viel Geld in größere Wafer zu investieren, hat man die Ausbäute bei 300mm ja auch verbessern können, indem die Yields mit der Zeit immer besser wurden, wie man es an folgender Grafik sieht.
http://blogs.intel.com/technology/files/2010/04/multi-generation-yield-thumb-300x225.jpg
Gerade bei 65nm und 45nm konnte die Defekt-Rate (= Ausschuss) weiter verbessert werden, sodass man auch ohne größeren Wafer (450mm) billiger herstellen kann.
 
Zuletzt bearbeitet:
Naturlich geht die Welt deshalb nicht unter, währe ja auch schlimm wenn einpaar nerds den weltuntergang herbei führen könnten :D.

Eine andere Technologie die "moore's law" paar jährchen aufrecht erhalten kann sind Diamandbasierte Transistoren http://www.geek.com/chips/81ghz-diamond-semiconductor-created-551147/ , das problem ist einfach wieder die Gesellschaft, die inhaber der Firmen die die Kristalle züchten haben schon morddrohungen bekommen.
 
CD schrieb:
.....Unter anderem deswegen ist Intel ja auch so am mobilen Markt, also Chips für Tablets und Mobiltelefone,....
.....
Natürlich ist Intel am Tablet und Smartphone Markt interessiert, nur müsste Intel weit über die Hälfte des Marktes, oder wohl noch mehr haben, um die Einnahmen zu bekommen, damit die Aktie weiterhin steigt und nicht so wie aktuell seit Monaten still steht. 22,50€ war mal vor Monaten, aktuell bei 16,70€ . Das dumme ist nur, wer will denn aktuell ein x86 Smartphone oder ein x86 Tablet? Die verkaufen sich extrem schleppend und damit generiert man sicherlich keinen Marktanteil und schon überhaupt nicht die Kosten die Intel hat.
Für mich sagt die News aus, dass Intel neue Märkte erschließen muss, zB Auftragsfertiger. Intel zwar weiterhin den x86 CPU Markt als Monopolist bedienen wird, trotzdem arg in Bedrängnis kommen wird, weil Stillstand einfach weniger Einnahmen bedeuten wird.
 
CD schrieb:
Das größere Problem der traditionellen CPUs ist glaube ich auch eher der Umstand, dass wir so langsam ein Niveau erreicht haben wo selbst eine vergleichsweise günstige CPU bereits 2-4 Kerne besitzt und über Jahre hinweg für den Normalbetrieb (damit meine ich Office und Internet) mehr als locker ausreicht. Unter anderem deswegen ist Intel ja auch so am mobilen Markt, also Chips für Tablets und Mobiltelefone, interessiert während AMD sich stark auf APUs konzentriert, die eine Abkehr vom klassischen zwei-Chip-System aus CPU und dedizierter Grafikkarte darstellen.
Dass in X Jahren bei y nm und der aktuellen Transistortechnologie schluss sein wird ist dagegen erstmal nur für die High-End-CPUs relevant...
Diese Schlussfolgerung sehe ich als sehr falsch an.
Denn wenn der Massen-CPU-Markt gesättigt ist (siehe deine erwähnten 2-4 Cores), dann gehen zukünftige Struktur-Verkleinerungen ausschließlich in Die-Größen-Verkleinerung ala SoC.
Früher als die CPU-Performance nicht gesättigt war, wurde der CPU-Core ja genauso verbreitert.

Es ist falsch, nur die CPU alleine zu betrauchten, denn in den letzten 20 Jahren wurde die FPU & iMC & L2-Cache & Northbridge & Southbridge in die CPU integriert, bis einmal ein SoC entstand.

Somit muss die ganze Plattform verglichen werden und nicht nur die CPU.
Dass AMD sich auf APUs konzentierte ist ein Effekt der CPU-Stagnation, weil 3 oder 4 oder 6 Modul mit Quad-Channel & Co die Masse nicht benötigt und deshalb iMC & Northbridge & Southbridge integriert und so die Plattform günstiger herstellt. Das hat nichts mit Konzentration von AMD zu tun, weil Intel es genauso macht. Die APU ist eigentlich ein CPU-Produkt, was sich zielgerichter für den Massenbedarf hergestellt wird.

Dass sich AMD nicht auf Smartphone konzentriert, liegt z.b. auch daran, dass man integrierten Funk haben muss, was selbst Intel noch nicht liefern kann, sowie mit den Geringsten Preisen nicht mithalten kann.

Der Grund, warums ich Intel so auf Tablets & Smartphones konzentriert, liegt daran, um die vielen Fabriken (AFAIK so 9-10) überhaupt auslasten zu können. Denn durch den Massen-Dual-Core-SoC entfällt die ganze Southbridge-Produktion in einigen Fabriken.
Um mit so 80mm² sind Souhtbridge nicht zu unterschätzen, die fast eine Atom-SoC-Größe besitzen.

Kurz gesagt, mit einem evenutellen Atom-Erfolg kann Intel höchstens den Produktions-Ausfall der Southbridges durch SoC-CPUs kompensieren und mehr nicht. Aber genau das muss sich erst zeigen, weil sich schon die alten Atoms in den Benchmarks gegenüber der Konkurrenz sehr gut aussahen.
Und selbst wenn Intel einen Atom-Erfolg schafft, dann nur mit neuster Fertigungs-Technologie, womit das Problem besteht, wo alte Fabriken nicht genutzt werden kann.

Seit 6-8 Jahren hat Intel immer so 4 Fabriken für die ganze CPU-Produktion neuester Fertigung gebraucht.
Damals wurde noch die Southbridge & Northbridge & W-Land/Wan und später der Atom in der alten Fabrik gefertigt.
Momentan sind schon immer mehr Komponenten integriert und trotzdem braucht Intel nur 4 moderne Fabriken.
Und in Zukunft wird Intel wegen 80-90% SoC fast ausschließlich in den 4 modernen Fabriken ihre CPUs herstellen.

Deshalb ist Intel gezwungen auch zum Foundry zu werden, wie es AMD per Globalfoundries schon seit 2009 macht.
Und das tut Intel schon und sie haben AFAIK schon 12 Kunden.
Das Problem liegt aber dann daran, dass die Foundry-Besteller dann kaum ihre Chips so teuer verkaufen können wie es Intel früher machte, weshalb Intel dann nicht so extreme Wafer-Preise verlangen kann. Und das führt wieder zu geringeren Umsatz, den Intel aber bräuchte um die immer weiter extrem Ansteigenden R&D- & Fabriks-Kosten für kleinere Fertigungen bezahlen zu können.
Und dieser Vortrag @ Topic-News glaubt halt, dass sie dann ab 2020 diesen alten Rythmus nicht mehr bezahlen können (und die Intervalle eben deutlich vergrößeren müssen)

AMD können diese Fertigugns-Probleme egal sein, weil das a) die Probleme der Foundries sind und b) weil AMD den Rythmus auf verkleinerte Strukturen (siehe Kabini @ 2013 statt Krishna @ 2012 und Kaveri Ende 2013 statt Mitte 2013) sowieso schon nach hinten verschoben haben, und in einen ausgereiferten ökonomischen Bereich einzusteigen.

Das Marketing von Intel konzentriert sich jetzt halt deshalb auf Smartphone & Tablets, weil die ganzen Hoffnungen im Ultrabook-Markt platzen und jetzt in diesen anderen Markt die große Hoffnung suchen.

Das Blöde ist nur, dass sich der Zenit schon abzeichnet.
Denn bevor der Globale PC-Markt-Zenit in den letzten 3 Quartalen einsetzte, zeichnet sich dieser viele Quartale davor mit PC-Rückgängen in Europa & USA ab. Jetzt zeichnet sich schon ein zukünftiger Tablet-Zenit durch billigere Tablet-Verkäufe und geringeren Wachstumraten ab.
 

Ähnliche Themen

Zurück
Oben