News Prozessoren: Intel trägt das Tick-Tock-Modell zu Grabe

Intels Vorsprung gegenüber der Konkurrenz lässt sich primär damit erklären, dass sie den FinFET entwickelt haben. Dadurch lässt sich die Streuung der Dotierstoffatome während der Ionenimplantation gut kompensieren, weil beim FinFET die beweglichen Ladungsträger nur noch aus der Drain-u Sourceelektrode stammen. Die Schwellenspannung wird also nicht durch die Kanaldotierung bestimmt, sondern durch die resultierende Austrittsarbeit von den Elektroden zum Kanal. Dadurch haben sie die Streuung der Transistorparameter so gut in den Griff bekommen, dass sie 22nm sehr gut wirtschaftlich fertigen konnten. Die Konkurrenz holt das jetzt auf und danach fehlt Intel ein derart technologischer Vorsprung.

strex schrieb:
@strex
Nein, das ist nicht zu einfach gedacht, denn von 22nm FinFET auf 14nm FinFET findet lediglich eine andere Lithographie statt und evtl. kommen andere low-k Dielektrika im Spin-On statt im CVD in den Metallisierungsebenen zum Einsatz. Ansonsten sind die Prozesse gleich, lediglich die Ausbeute sinkt, weil die Prozessführung genauer sein muss und die Streueffekte zunehmen. Da liegt eher das Problem. Abgesehen davon sind die Waferkosten durchaus zu berücksichtigen, denn SOI-Wafer kosten ein Vielfaches mehr als Bulk-Wafer. Wenn Sie zur Abwechslung aber gerne mal mit Wissen und nicht mit Halbwissen glänzen wollen, kann ich Ihnen nur wärmstens das Buch von meinem Prof empfehlen:

Silizium-Halbleitertechnologie
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Scythe1988 schrieb:
@Scythe1988
Es geht ja nicht nur um Spiele.

Früher konnte man mit schöner Regelmäßigkeit sagen nächstes Jahr haben wir das Doppelte zum gleichen Preis.

Wer ein Rechenzentrum mit 1000 Rechnern baute wusste schon nächstes Jahr könnten wir sie durch 500 neue ersetzen. Genauso bei Festplatten. Nächstes Jahr nur noch 500 Racks statt 1000.

Es mag sein, dass wir beim PC unter dem Tisch nicht mehr Nutzen ziehen können wenn sich die Leistung verdoppelt. Was ist aber mit verzehnfachen, verhunderfachen oder vertausendfachen? Würde das auch nicht reichen um neue Anwendungsmöglichkeiten zu erschließen?
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
xexex schrieb:
Man kann nicht alles beliebig weiter verkleinern und die Kosten dafür sind exponentiell gestiegen. Deshalb gab es in den letzten Jahren kaum Fortschritte und in absehbarer Zeit wird es auch keine mehr geben!

...mehr Kerne...

Äh, ja?! Was genau willst du mir jetzt damit sagen? Habe lediglich jemanden darauf hingewiesen, dass es eben an der Verkleinerung der Fertigung liegt und nicht an ausgereiztem Potenzial der Architektur.

Was mehr Kerne angeht wird sich Intel hüten, die einfach so ohne Bedarf in den Mainstream zu werfen. Kein Normalo braucht mehr als 4 Kerne. Wer kein Normalo ist zahlt auch mehr. Sie würden einfach direkt auf einfaches Geld verzichten, um massenhaft Leuten billigere Leistung zu geben, die sie nicht brauchen, was dann nur dazu führt, dass die noch weniger Grund haben aufzurüsten und Intel nochmal weniger Geld bekommt. Bei immer teurer werdenden Fertigungen. Das wird ohne guten Grund schlichtweg nicht passieren.
Dass es geht sieht man ja an den Server-CPUs. Die maximal mögliche Kernzahl ist mit den letzten Generationen enorm gestiegen.

Krautmaster schrieb:
Was Zen vielleicht ändern kann und das ist gut, dass mal die 8 und 12-15 Kerne im Desktop Segment günstiger werden und bei Intel auch mal kommen. Ich mein die hauen im Server Segment locker 18-24 Kerne auf einer CPU raus und der Mainstream bekommt 4 - und das seit gefühlt Jahrzehnten. Da könnte sich mal was tun und auch 8 Kerner um 200 € über die Theke gehen.

Warum sollte der Mainstream mehr Kerne bekommen? Die werden null genutzt. Wer die wirklich nutzt kann auch eine Workstation mit Xeon benutzen. Für Spiele wäre es z.B. sogar eher dämlich. Auch bei den CPUs mit 18-24 Kernen, bzw. 12-15 Kernen, können hohe Taktraten, die Spiele gerne sehen, nicht gehalten werden. Oberhalb der 10 Kerne kommt man auch jetzt mit TDPs von 130-160W nicht über 3Ghz Basistakt hinaus. Turbos gehen bis maximal 3,7 Ghz, wobei wir hier ohnehin von nur 6 CPUs reden, die ab 3Ghz Basistakt laufen.
Wieso soll denn ein fiktives ~180W-TDP-Monster mit 12x 3,5-4Ghz (mal einfach angenommen das ginge) in einem Mainstream-Rechner fröhlich Strom in Wärme wandeln für Leistung, die niemals genutzt wird und z.B. in Spielen sogar noch öfter mal hinter die Leistung eines 4x 4-4,5Ghz 4-Kerners fällt?
 
Zuletzt bearbeitet:
_Cloud_ schrieb:
mit der realität haben die angaben ja seit 60nm schon absolut nichts mehr zu tun.

bei 45nm gabs die ersten großen abweichungen wen man bedenkt bei 28nm würden teil bereiche noch im 60 und 45nm verfahren hergestellt.

mit der realität hat das auch bei Intel schon lange nichts mehr zu tun.
man kann natürlich nach aussen hin verkaufen dass man in 22 nm fertigt auch wenn das halbe innenleben anders aussieht.
Das "22nm" bezieht sich nur auf den sogenanten "Technologieknoten". bei grossen teilen der cpu beträgt der gate pitch aber immer noch 90nm"
Bei tsmc und GloFo ist das ähnlich, der angepriesene Herstellungsprozess ist also heutzutage eigentlich nicht mehr aussagefähig


Und zum Thema selber: War schon länger klar und absehbar , daß Tick Tock nicht haltbar ist, und das hat auch keine Marketing gründe.

Es geht einfach nicht schneller....

Gruss Digger
 
blackiwid schrieb:
Naja das mal dazu, das Amd mit der neuen Architektur nicht an HEUTIGEN Intels vorbei zieht wie viele hier ja glauben halte ich fuer Absurd

Fragt sich in welcher Hinsicht? Effizienz oder Performance oder beides? Man bedenke, dass auch AMD nur mit Wasser kocht bzw. mit denselben real existierenden physikalischen Limitationen derzeit verwendeter Materialien (insbesondere Silizium) zu kämpfen hat. Da sind keine Wunder zu erwarten.
Zumindest in Sachen Performance könnte Intel sehr leicht direkt kontern. Wie in früheren Zeiten würde dies vermutlich einfach über deutliche Takterhöhungen laufen. Praktisch jeder i5/i7 macht ja ein paar 100MHz ohne größeren Aufwand mit. Intel würde also vermutlich an der Taktschraube drehen und das Chipdesign leicht abwandeln (bessere Spawas, kühloptimiertes Design usw.). Fertig wäre ein i7-6800K oder 6900K, um mal bei Skylake als Beispiel zu bleiben.
Schwieriger dürfte ein Konter in Sachen Effizienz werden, aber es erscheint mir in Anbetracht der vorher genannten physikalischen Probleme sehr unwahrscheinlich, dass AMD in dem Bereich plötzlich Bäume ausreißen wird.

Schau'mer mal... ;)
 
Wattwanderer schrieb:
@Wattwanderer
ich erinnere mich an keine hardware, die die leistung zum vorgängerjahr verdoppeln konnte, ausser 286 auf 386, aber selbst da nicht jedes jahr eine neue "Architektur" dazu. ich bleib noch bis 2020 auf meinem ivy bridge i5, wenn ers denn solange noch macht. bis jetzt hab ich soweit keine probleme, für meinen anwendungsbereich und er lässt sich auch schön passiv "kühlen":)
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Laggy.NET schrieb:
@Laggy.Net
Was sollen sie groß ändern? Intel hat die Technologie um AMD zu Kontern. Wenn Zen stark wird, gibt es im Winter eben zwei Kerne mehr unter dem HS. Genug Platz ist ja. Und wenn sie den Schritt noch nicht gehen wollen, integrieren sie Iris Pro. Deren eDRAM hat Broadwell schon ~10% Leistung geboten - CPU-Leistung, wohlgemerkt.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
rentex schrieb:
@rentex
Doch, Fortschritt ist planbar. Und zwar immer dann, wenn ich keinen Druck habe und Technologie bewusst zurück halte. Egal welchen Grund man dafür hat. Wer sagt dir, dass Intel nicht längst im 7nm Bereich fertigen könnte?
Aufgrund der nicht vorhandenen Konkurrenz gehen sie nun eben die Kunden melken. Von wirtschaftlicher Sicht nachvollziehbar.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Nutze seit Jahren Sandybridge, bin mal gespannt, wann es sich endlich lohnt umzusteigen. :freak:
 
ScOuRgE_ schrieb:
@ScOuRgE_
Was ist das für ein Käse. Alleine durch Inflation und steigende Gehälter wird ein Prozess zum vorherigen teurer und die haben mit der Entwicklung noch überhaupt nichts zu tun. Aus diesem Grund fließen auch keine Milliarden in die Entwicklung von neuen Materialien und neuer Konzepte, welche man bei einer Fehlentwicklung, da nicht funktionsfähig auch in die Entwicklungskosten fließt. Da sind nicht nur Kosten enthalten, die wirklich einen Beitrag zum Prozess brachten.

Das Prozesse heute deutlich teurer sind und deutlich teurer werden kann man nicht abstreiten. Das ist auch der Grund warum sich einige zusammen geschlossen haben. Wenn das so günstig ist, wie du immer schreibst, dann wäre der Schritt wirtschaftlich total unsinnig, weil der Prozess ziemlich billig zu haben wäre. Ist er aber nicht. Die Kosten und Tricks von 22 auf 14 ist deutlich größer als noch von 90 auf 65. Der Schritt von 22 auf 14nm hat Intel für die Umrüstung jedoch Milliarden gekostet, auch insbesondere der schlechten Ausbeute die bis heute den Verkauf von der KNL deutlich trübt und somit einen wirtschaftlichen Schaden den man auch beachten muss.

Bei deiner Milchmädchen Rechnung vergisst du alle wirtschaftlichen Kosten die entstehen, wenn sich ein Prozess verschiebt, der wie wir sehen nicht der letzte sein wird. Dafür wurde extra ein Refresh gebastelt, kostet auch wieder eine Menge und muss den Kosten des neuen Schritts hinzugerechnet werden. Zu den Kosten kommen auch noch deutlich höhere Kosten für die Umrüstung hinzu, allein nur durch die Inflation und jährlich steigende Kosten für Mitarbeiter. Das mit den deutlich teureren und höheren Entwicklungskosten kleinerer Prozesse, teurer Maschinen, wird jeder kleinere Fertigungsschritt deutlich teurer als der davor.

intel_14nm_vs_22nm_cost_curve_comparison.png

Da brauchen wir uns auch nur die Grafik der Herstellungskosten (ohne Entwicklung) betrachten. Wie wir sehen ist der Prozess bei Broadwell am Anfang deutlich teurer, da es aber im hinteren drittel kaum niedrigere Funktionswerte gibt, dauert die Zeit zu lange bis diese Kosten wieder verbucht wurden. Bis dahin ist schon wieder der nächste Schritt da. Man muss erst einmal die Kosten für Entwicklung und Forschung durch die bessere Ausbeute, einsparen. Das geht auch nicht von heute auf morgen.

Wenn man natürlich alle weiteren wirtschaftlichen Kosten eines neuen Prozesses vergisst, dann ist er billiger, real aber nicht. Rechnet man jetzt noch für die kommenden Schritte die Entwicklungskosten von EUV dazu, die wohl irgendwann Einzug erhält, dann wird das einer der teuersten Prozesse überhaupt.

anandtech schreibt selbiges, womit meine Beschreibung also nicht so falsch sein sollte wenn man alle Kosten betrachtet:

As the cost of wafers and fabbing have risen over the years there has been concern that transistor costs would plateau, which would lead to chip designers being able to increase their performance but only by increasing prices, as opposed to the past 40 years of cheaper transistors allowing prices to hold steady while performance has increased. So for Intel this is a major point of pride, especially in light of complaints from NVIDIA and others in recent years that their costs on new nodes aren’t scaling nearly as well as they would like.

Intels eigene Aussage bestätigt dasselbe:

Holt discussed some of the economics behind Moore's Law, explaining that the cost of creating the next process node has historically grown at about 10 percent per generation but is now at about 30 percent.

http://www.anandtech.com/show/8367/intels-14nm-technology-in-detail

Der 10, 7 und 5nm wird sicherlich nicht billiger als vorherige Schritte, da kann man sicher sein. Und wie beschrieben, skalieren diese Kosten nicht mehr mit der Einsparung bei der Produktion, somit muss ohne Inflationsbetrachtung die Preise in nächster Zeit steigen im Verhältnis zu Erhöhung der Komplexität. Das wäre aber nur möglich, wenn die Kosten nur in dem Umfang ansteigen pro neuem Schritt wie durch mehr Ausbeute später herausgeholt werden kann, dass ist aber wie im anandtech beschrieben Artikel nicht mehr der Fall.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Dass Tick-Tock nur kurzfristig funktionieren kann, war mir persönlich (und wahrscheinlich vielen anderen) schon bei Bekanntmachung dieses Modells klar.
Aber immerhin hat es ein paar Jahre lang geklappt und die Weiterentwicklung war zwar nicht atemberaubend, aber dennoch vorhanden - entgegen des Internetmythos, dass ein 2500-er quasi das gleiche wie ein heutiger Prozessor wäre.
 
Hopsekäse schrieb:
Warum sollte der Mainstream mehr Kerne bekommen? Die werden null genutzt. Wer die wirklich nutzt kann auch eine Workstation mit Xeon benutzen. Für Spiele wäre es z.B. sogar eher dämlich.

Naja, gerade 6-8 Kerne werden schon manchmal genutzt, gerade Spiele nutzen zunehmend mehr Threads auch gut verteilt.

Die Performance über IPC nach oben zu treiben ist längst nicht mehr so rentabel da die Zuwächse gering sind. Der Weg wäre über Takt aber auch da limitiert die aktuelle Technik bei ~4 Ghz.

Bleibt eigentlich nur der Weg in die Breite was Intel ja mit der EP Plattform vorantreibt. Auch Zen wird zwar die IPC erhöhen, aber auch in die Breite gehen. Denke 8 Kerne + SMT werden da im Consumer Bereich fällig werden.

Ein Turbo federt alles was nicht mit Kernen skaliert wunderbar ab. Und auch die DIE Size ist bei 8 Kernen derweil echt klein, kleiner als die Skylakes mit GPU.

Was noch fehlt ist die bahnbrechende Entwicklung um die Leistung / Kern wieder nach oben zu schrauben. Zb Material das bis 20 Ghz effizient taktet oder sowas.
 
strex schrieb:
Wenn man natürlich alle weiteren wirtschaftlichen Kosten eines neuen Prozesses vergisst, dann ist er billiger, real aber nicht. Rechnet man jetzt noch für die kommenden Schritte die Entwicklungskosten von EUV dazu, die wohl irgendwann Einzug erhält, dann wird das einer der teuersten Prozesse überhaupt.

anandtech schreibt selbiges, womit meine Beschreibung also nicht so falsch sein sollte wenn man alle Kosten betrachtet:



http://www.anandtech.com/show/8367/intels-14nm-technology-in-detail

Lesen Sie doch mal genau, was sie da gerade zitiert haben. In den letzten Jahrzehnten sind die "Prozesskosten" eben nicht im Verhältnis zur Rechenleistung gestiegen und aus dem Grund ist Rechenleistung heute auch wesentlich günstiger als noch vor 10 Jahren. Durch 300mm Wafer und aufwendigere Prozesse sind die Kosten des Skylake ebenfalls nicht zu rechtfertigen und schon gar nicht durch Mitarbeiterkosten oder Inflation (die Produktion verläuft vollautomatisch, das techn. Personal kontrolliert nur noch). Wenn Sie die gleiche Ausbeute bei 14nm FinFET haben wie bei 22nm FinFET dann sinken Ihre Kosten/Transistor. Genau dieses Ziel hat Intel auch in zig Roadmaps angekündigt und klar verfehlt! Das Problem, was Intel bei 14nm FinFET hat ist die geringe Ausbeute und die absurden Margenziele, um die Aktionäre mit Rendite zu füttern. Deswegen nützen unwirtschaftliche Prozesse eben auch nichts und wenn EUV weiterhin wesentlich unwirtschaftlicher bleiben wird, als Immersionslithographie, wird darin auch nicht mehr weiter investiert.
 
Zuletzt bearbeitet:
ScOuRgE_ schrieb:

Somit ist klar das ein neuer Prozess bzw. eine neue CPU mit im Verhältnis steigender Leistung nicht mehr billiger werden kann.

As the cost of wafers and fabbing have risen over the years there has been concern that transistor costs would plateau, which would lead to chip designers being able to increase their performance but only by increasing prices, as opposed to the past 40 years of cheaper transistors allowing prices to hold steady while performance has increased.

Bedeutet, die Skalierung zwischen bessere Ausbeute und dem teureren Prozess funktioniert nicht mehr. Aber scheinbar liegen alle falsch nur du nicht und alle stecken die Gewinne in die eigene Tasche.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Wieso liegen alle falsch nur ich nicht? Diese Aussagen bestätigen doch meine Annahme vom Anfang, dass Intel es nicht mehr schafft, die Kosten/Rechenleistung zu senken. Wo steht, dass das eine empirische Notwendigkeit ist? Ich gehe sehr stark davon aus, dass in den kommenden Jahren selbstverständlich die Kosten/Transistor im 14nm FinFET sinken werden, aber eher weil die Konkurrenz von Samsung/Global den Prozess optimiert und wirtschaftlicher gestaltet. Intel kriegt es zumindest nicht hin und damit ist dieser Konzern eher schädlich für die Entwicklung und den Kunden, als dass er noch die Fortschritte im Sinne von Moore's Law liefert. Er missbraucht seine Monopolstellung schlicht. Die technologisch/physikalische Grenze, ab der sich Transistoren nicht mehr wirtschaftlicher fertigen lassen, liegt bei aktuellen Prognosen irgendwo bei 5nm und drunter. Davon sind wir aber noch weit entfernt, sonst würde man ja auch gar nicht mehr in 10nm investieren.
 
Zuletzt bearbeitet: (Zitat entfernt)
Das ist aber logisch, wenn es keine Konkurrenz im x86 Markt gibt. Ich wundere mich dass die das nicht viel früher gemacht haben. Wen interessiert die Fertigungstechnik ?
 
Zuletzt bearbeitet:
Der Mainstream brauch nicht mehr Leistung - und die, die aktuell danach fordern, sind die, die halt eigentlich nicht in den "Mainstream" passen, aber zu geizig sind, für die Leistung halt auch Geld zu bezahlen. Fakt ist doch: Es gibt aktuell Prozessoren, die weitaus stärker sind, als das was wir in unseren Desktops verbauen. Aber die kosten halt keine 200 Euro...
 
Der letzte Punkt klingt für mich nach der Strategie die AMD an den Tag legt.
Da ist der "Refresh" letztendlich auch nur eine optimierte Variante des ursprünglichen Chips die höhere Taktfrequenzen bei gleicher TDP erlaubt.

Umgelegt auf Intels neuer Strategie wäre das dann ein Chip mit der neuen Architektur, ein Chip mit Optimierungen am Chip selbst und ein neuer bei dem Verbesserungen im Fertigunsgprozess mit etwas Feintuning in Form von höheren Taktfrequenzen oder einem geringeren Verbrauch mit einfließen.
 
Ist doch gar keine Frage ob ein Excavator in 14nm mit Intel konurenzfaehig wäre.

Natürlich wäre er das. Nicht in IPC aber eventuell über den Takt und ganz sicher über den Preis oder die Leistungsaufnahme.

32nm - 14nm ist nicht die hälfte sondern ein viertel an Fläche oder 4x soviele transistoren bei gleicher Fläche.
 
Volker schrieb:
TSMC geht mit großen Schritten auf die 7-nm-Fertigung zu, ab dem Sommer 2016 soll die 10-nm-Fertigung in Serie produziert werden, Anfang 2017 die 7-nm-Herstellung in den Status der Risikoproduktion gehen.

Hmm, ich dachte, bisher war die Aussage von TSMC für 10nm: Q1/2016 Risc production, Q4/2016 Volume production.

Zur Beurteilung der wahren Größenordnung eines Prozesses gibt es verschiedenste Kriterien. Ich persönlich finde das Produkt aus Contacted Gate Pitch und Interconnect Pitch am einleuchtendsten.
Dabei kommen Samsung mit dem 14FF LPP und TSMC mit dem 16FF+ beide auf knapp 5000nm², Intel mit seinem 14FF auf 3640nm².
Vorläufige Planzahlen sind für den 10FF-Prozeß bei Intel 2090nm², bei Samsung 3070nm² und bei TSMC 3220nm². Und dann ist da noch IBM, die mit ihrem 14FF-Prozeß auf 3070nm² kommen wollen.

Wie man sieht, Namen sind Schall und Rauch.
So entspricht bspw. der Schritt von Samsungs 28 LPP zu 14FF LPP nur einem Fullnode-Shrink.

PS: Da wir gerade beim Thema sind: Kennt jemand den Transistor Fin Pitch der 10FF-Prozesse der verschiedenen Hersteller? Die halten sich da sehr bedeckt!
 
Zurück
Oben