News Intel-Fertigung: 14 nm verfehlt Prognosen, Ausblick auf 10 und 7 nm

Ist bei 7nm nicht das Ende erreicht von dieser Technologie?
Zudem: Die 14nm sind nicht ausgereift.
Kaum Mehrleistung/Vorteile - Warum soll das weg gehen wie warme Semmeln?
Die Herstellung macht Probleme - somit auch nicht fördernd.
 
oldmanhunting schrieb:
Wie, Wo, Was? Da werden IPhones gekauft und es wird untersucht wie weit die Konkurrenz ist mit Ihrem Chips und der Dichte? Haben die keine Spione in den anderen Fabriken?

Kann mir auch nicht vorstellen, daß Intel iPhones kaufen(!) muß, um an die SoCs zu kommen. Scherzkekse.
 
Zuletzt bearbeitet:
Irgendwann muss da doch auch mal Schluss sein. 1 nm sind... 5-10 Atome oder so? Dann wären 7 nm maximal 70 Atome.
Da war doch auch früher immer die Rede von Elektromigration. Dass das gut geht?
 
incurable schrieb:
Hat man EUV jetzt endgültig ad acta gelegt, oder finde ich es nur nicht auf dem Zukunfts-Slide?
Ne, aber nach 10nm eventuell nach 7nm verschoben.
serval schrieb:
Verstehe ich nicht: Heißt das, daß x86-Prozessoren ineffizienter designt sind als ARM-Prozessoren?
Nein, aber erheblich schneller. Mobile SoCs setzen ja nicht auf maximale Taktraten und langsamer schaltende Transistoren lassen sich dichter packen. Dazu kommen die Unmengen an SRAM die im A9 verbaut sind, der hat sogar mehr Cache als die Intel 4 Kerner.

TenDance schrieb:
7nm wäre ohne EUV auch nicht möglich...
Aha und warum nicht? Hat Intel mal so geplant gehabt. Und so ganz klar ist EUV für 7nm noch nicht.

pipip schrieb:
Also Samsung spricht bereits von 10nm Prozess, wobei Kritiker davon sprechen, dass Intel durchaus die höhere Packdichte haben könnte.
Naja SRAM halt, das war bisher immer so, dass SRAM deutlich vor größeren Logikbausteine gefertigt wurden.

Es wird spannend, aber der Abstand zur Konkurrenz ist durchaus kleiner geworden.
Das definitiv. Mit 32-22nm war Intel einfach extrem vorraus. Aber da Intel derbe Probleme mit 14nm hat und TSMC und Samsung gleichzeitig mächtig investiert haben, ist der Abstand doch merklich kleiner geworden.
 
Zuletzt bearbeitet:
schreiber2 schrieb:
Ich hab mal gehört, dass man bei 7nm bereits bei 10 Atomen pro Transistor sei. Wo da noch großer Fortschritte erwartet werden können, erschließt sich mir nicht.

Atomradien sind in der Größenordnung von Angström (=0,1 nm). Wären eher 30-35 Atome. Wird endlich Zeit für den Quantencomputer.
 
ne 4 echte nm = 7 atome.so schnell sind wir noch nicht am machbaren, afair sind 14nm finfet=20nm real.da gehts also noch ein paar stufen runter. aber die entwicklung wird langsamer.
 
fuyuhasugu, wie kommst Du den blos auf diese blöde Frage? Natürlich sind die CPUs nicht kaputt, die laufen doch bei den Kunden und liefen schon in den Reviews. Das Problem ist die Ausbeute des Prozesses, es gibt auf einem Wafer eben so viele funktionierende Chips wie man es erwartet hatte. Das ist nur ein Problem für die Finanzabteilung, die Kosten entstehen bei der Fertigung pro Wafer, der Erlös aber pro funktionierendem Chip. Deswegen sind die Skylakes die verkauft werden aber nicht kaputt, es gibt aber am Ende auf jedem Wafer der nach der Entnahme der funktionierenden Chips entsorgt wird, eben dann noch mehr defekt Chips als erwünscht ist.

oldmanhunting schrieb:
Da werden IPhones gekauft und es wird untersucht wie weit die Konkurrenz ist mit Ihrem Chips und der Dichte? Haben die keine Spione in den anderen Fabriken?
Das sicher auch, aber man wird nicht sagen können, "laut unseren Spionen haben wir da noch einen Vorteil" also sagt man, dass man Produkte mit den Chips gekauft und untersucht hat. Der beste Kunde des Opel Händlers in Wolfsburg ist das VW-Werk, was die wohl mit den Autos machen? Eben untersuchen und mit den eigenen Produkten vergleichen! Das ist doch total normal und AMD, IBM, Samsung, etc. werden auch die Chips von Intel kaufen und genau untersuchen, da kannst Du aber sicher sein.

Pure Existenz schrieb:
Zudem: Die 14nm sind nicht ausgereift.
Verwechsele die Produkte nicht mit der Fertigung!
Pure Existenz schrieb:
Kaum Mehrleistung/Vorteile - Warum soll das weg gehen wie warme Semmeln?
Wieso? Die meisten Games können die Leistungssteigerungen der letzten Generationen schon gar nicht mehr nutzen, daher entsteht eben bei den Gamern der Eindruck Intel würde die Leistung der CPUs nicht steigern und genau das ist eben falsch. Bei Anandtechs Linux Benchmarks sowie bei den Windows Professional Performance Benchmarks Skylake 6700k Vorteile von bis zu 20% gegenüber dem Haswell 4790k zeigt, dann ist die Leistungssteigerung ja wohl vorhanden. Im Gaming Benchmark mit High-End Grakas liegen die i5 und i7 seid SandyBridge dagegen meist eng beienander, bei Total War Attila auf der R9 290X alle bei 27,x fps, die Unterschiede der CPUs spielen da also keine Rolle, was man auch daran sieht, dass bei dem Spiel mit der GTX980 dann plötzlich ein i5 4690 mit einem in jeder Hinsicht schnelleren i7 4790k gleichzieht. Deswegen kann man nicht beiden CPUs die gleiche Leistung unterstellen und behaupten der 4690 wäre generell so schnell wie der 4790k, das ist nur in dem Fall mal so und bei anderen Games vielleicht auch, aber eben nicht generell.

Wenn es zwischen dem i5-4690 zum i7-4790k also nicht sagen kann, warum wird es dann aber beim Vergleich von Haswell zu Skylake und teils auch dessen Vorgängern doch so oft behauptet?

Die Games sind die Ausnahme, auch wenn hier viele im Forum die Rechner hauptsächlich dafür nutzen und viele Reviewer ihre Fazits danach schreiben wie die CPUs in Games abschneiden, aber es gibt noch viele andere Anwendungen und da ist Skylake fast immer Haswell überlegen. Schaut man mal einen Benchmark wie Cinebench 11R5, hier im Review des i7-5775C an, der gut die System Performance ermittelt, denn sieht es schon die Steigerungen über die Generationen. Bei den Ergebnisse für Einzelkern gehe ich mal vom maximalen Turbotakt aus um die IPC zu ermitten, der ist beim 5775C 3.7Ghz, beim 4770k 3,9GHz, beim 3770k 3,9GHz und beim 2600k 3,8GHz.
2600K: 1,49 / 3,8GHz = 0,392 Pkt/GHz
3770K: 1,66 / 3,9GHz = 0,426 Pkt/GHz 8.6% mehr als der 2600k
4770K: 1,77 / 3,9GHz = 0,454 Pkt/GHz 6,6% mehr als der 3770k, 15,7% mehr als der 2600k
5775C: 1,79 / 3,7GHz = 0,484 Pkt/GHz 6,6% mehr als der 4770k 13,7% mehr als der 3770k, 23,4% mehr als der 2600k

Alle haben 4 Kerne + HT, sind also gut vergleichbar und für Multikern nehmen ich die angegeben Taktraten:
2600K: 6,77 / 3,4GHz = 1,991 Pkt/GHz
3770K: 7,54 / 3,5GHz = 2,154 Pkt/GHz 8,2% mehr als 2600K
4770K: 8,16 / 3,5GHz = 2,331 Pkt/GHz 8,2% mehr als 3770k 17,1% mehr als 2600k
5775C: 8,35 / 3,3GHz = 2,530 Pkt/GHz 8,5% mehr als 4770K,17,5% mehr als 4770k, 27% mehr als 2600k

Interessant ist auch der Vergleich der Effizienz: Im Review bei CB brauchte der 5775C 92W, der 4770k 113W, der 3770k 100W, der 4770k 113W und der 2600k 115W, alle liegen zwischen 3.3GHz und 3.5GHz. Damit ergibt sich:
2600K: 6,77 / 115W = 0,0589 Pkt/W
3770K: 7,54 / 100W = 0,0754 Pkt/W +28% zum 2600K
4770K: 8,16 / 113W = 0,0722 Pkt/W -4% zum 3770K +22% zum 2600K
5775C: 8,35 / 92W = 0,0908 Pkt/W +26% zum 4770K, +20% zum 3370K, +54% zum 2600K

Beim Review von Skylake wurde statt der 11R5 nun Cinebench 15 gekommen, aber schauen wir mal:

Singlethread:
2600K: 119 / 3,8GHz = 31,32 Pkt/GHz
3770K: 139 / 3,9GHz = 35,64 Pkt/GHz 11,8% mehr als der 2600k
4790K: 173 / 4,4GHz = 39,32 Pkt/GHz 25,6% mehr als der 2600K
6700K: 181 / 4,2GHz = 43,1 Pkt/GHz 37,6% mehr als der 2600K, 9.6% mehr als der 4790K

Multithread:
2600K: 614 / 3,4GHz = 180,59 Pkt/GHz
3770K: 667 / 3,5GHz = 190,57 Pkt/GHz 5,5% mehr als 2600K
4790K: 873 / 4,0GHz = 218,25 Pkt/GHz 20,9% mehr als 2600k
6700K: 886 / 4,0GHz = 221,5 Pkt/GHz 22,6% mehr als 2600K, 1,5% mehr als 4790k

Effizienz bei Multithread:
2600K: 614 / 119W = 5,16 Pkt/W
3770K: 667 / 104W = 6,41 Pkt/W 24,3% mehr als 2600K
4790K: 873 / 129W = 6,77 Pkt/W 31,2% mehr als 2600k
6700K: 886 / 108W = 8,2 Pkt/W 59% mehr als 2600K, 21,2% mehr als 4790k

Würde man die Idle Leistungsaufnahme abziehen, wäre der Fortschritt geringer, da die vom S. 1155 auf den S. 1150 um mindestens 10W gefallen ist, zumindest bei den im Test verwendeten Boards, aber ohne Board geht es ja nicht und wie hoch die Leistungsaufnahme des Board dann bei Last wirklich ist, kann man so einfach auch nicht aus der Idle Leistungsaufnahme ablesen, da die Chipsätze im Idle immer mehr Funktionen deaktivieren oder runtertakten, weshalb sie unter Last dann umso mehr als im Idle brauchen, je intensiver solche Energiesparmaßnahmen umgesetzt werden. Damit kann man die Differenz nicht alleine der CPU zurechnen.

Das Bild bleibt trotz der anderen CPUs und des anderen Benchmarks und obwohl sowohl der 4790k als auch der 6700k gerade im Grundtakt höher Takten als die S.1155 Vorgänger, dann doch recht ähnlich: Pro Shrink steigt die Effizienz um über 20% und auch wenn die Multithread Performance taktbereinigt nur um 22,6% vom 2600k zum 6700k gestiegen ist, so waren es bei SingleThread beachtliche 37,6%.

Außerdem liefert heute weniger die CPU Performancesteigerung ein Motiv für ein Systemupgrade als eher die neuen Featues und schnelleren Schnittstellen der Chipsätze und Boards, versuche mal auch Sandybridge von einer NVMe SSD zu booten :D Die iGPU hat auch mächtig zugelegen, aber wenn einem Features, iGPU und Effizienz egal sind, dann sollte man nicht meckern, sondern froh sein sich das Geld für ein Upgrade weiter sparen zu könnne, wo ist da das Problem? Sparen ist doch gut und man kann Geld auch für viele anderen schöne Dinge ausgeben!

Pure Existenz schrieb:
Die Herstellung macht Probleme - somit auch nicht fördernd.
Das ist ja nun zuerst einmal ein Problem des Herstellers, nicht der Kunden, die leiden allenfalls unter schlechter Verfügbarkeit und höhren Preisen, wenn die Fertigung nicht die gewünschte Ausbeute bringt.
 
Bringt das überhaupt noch groß was? Sind doch kaum Leistungsschübe zu erwarten noch!
 
Naja Intel hat viele Problem mit den 14nm. Hoffe das trifft nicht auf die GPUs zu. Klar ist ARM effizienter, aber GPUs sind auch effizienter als CPUs. Dennoch kann man die nur so halb miteinander vergleichen. Hatte IBM es nicht mal geschafft auf einen Kern, 7 Threads laufen zu haben.
 
Tekpoint schrieb:
Bringt das überhaupt noch groß was? Sind doch kaum Leistungsschübe zu erwarten noch!
Leistung ist nur das eine, die gibt es bereits. Viel wichtiger ist es, dies mit einer niedrigeren TDP zu ermöglichen für mobilere Anwendungen.

Das mit den iPhone SoCs find ich auch ein dickes Ding, herrlich.
 
Yeah... Also heißt es für alle 6700k Interessenten: kauft euch leiber einen 5820k. Der ist wenigstens verfügbar...
 
Ja, Quantencomputer, Graphit-CPUs, was kommt noch, wenn der Standard am Ende ist? Auf jeden Fall spannend. Schon supi hinsichtlich dieser Entwicklungen, wenn man Anfang der 70er geboren wurde. Man bekommt alles mit, Anfang und Ende. Was haben wir alles an Hardware verbaut :D Sinclair ZX81... mit 1kb RAM! Yeah Baby und nun ist bald Feierabend ;)

Mit der Technik stagniert auch die Wirtschaft. Und so lange es keine "Displayfolien" gibt, die man sich allergenfrei in den Unterarm transplantieren lassen kann (angetrieben durch Bio-Power vom Körper ;)), so lange Kontaktlinsen mit eingebautem Smartphone nicht für Jedermann normal sind, so lange stagnieren und treten wir auf der Stelle. Als Opa werde ich wohl drüber lachen können :D
 
@Holt:
In Cinebench fließen aber immer sehr viele Optimierungen ein, so weit mir bekannt. Außerdem müsstest du für einen optimalen Vergleich mit den gleichen Taktraten vergleichen, du willst ja wissen, wie sich die Performance zwischen den Generationen verändert hat.
Teilweise haben die neueren Modelle ja auch 15% oder noch mehr Takt. Da sind 20% Mehrleistung am Ende nicht mehr so gewaltig ;)
 
Ausserdem ist Cienbench etwa so aussagekräftig wie ein Furz in der lauen Sommernacht.
Es benutzt zwar jeder den Benchmark, aber kaum einer Maxxons 4D.

Da braucht man Vergleiche mit Produktiv-Software, bei gleichem Takt.
Und dann sehen wir, solange nicht, die neuen SIMD Einheiten greifen, einen IPC Zuwachs von
5-15%.
 
Zuletzt bearbeitet:
Trotzdem spricht Holt doch einen Fakt an: Es wird bei den meisten Benchmarks nur auf Spieleleistung geschaut. Und der Ansatz ist doch defacto schon dahingehend Bullshit, da die meisten Games halt Ewig nicht im CPU-Limit hängen... Da bringen 15-20% Leistung keinen weiteren FPS.
 
oldmanhunting schrieb:
Wie, Wo, Was? Da werden IPhones gekauft und es wird untersucht wie weit die Konkurrenz ist mit Ihrem Chips und der Dichte? Haben die keine Spione in den anderen Fabriken?

der CIA hat bereits Probleme arabisch sprechendes Fachpersonal zu rekrutieren,
Koreanisch dürfte noch schwieriger sein,

mal im ernst, die Prozessoren mit einen Ionenstrahl zu schleifen und sich mit einen SEM anzuschauen dürfte kein Problem sein trotz der Sicherungen, und jeder Hersteller dürfte das regelmäßig mit Konkurrenzprodukten machen

@kachiri
schaue die aktuellen Benchmarks von Fallout 4 und DX12 soll da noch besserung bringen in der Auslastung der CPU; aber es stimmt das man für die meisten DX11 Games eigentlich mit einen 5 Jahre alten i5-7 zufrieden sein kann
 
Zuletzt bearbeitet:
Holt schrieb:
blöde Frage. Natürlich sind die CPUs nicht kaputt, die laufen doch bei den Kunden und liefen schon in den Reviews.
Ich habe nur den Artikel zitiert. Dafür, dass dort "blödes" Deutsch verwendet wurde, kann ich auch nix. Ändert aber trotzdem nichts daran, dass die Realität logischerweise anders aussieht, denn sonst gäbe es die CPUs, wie Du richtig erkannt hast, gar nicht auf dem Markt.
 
serval schrieb:
Verstehe ich nicht: Heißt das, daß x86-Prozessoren ineffizienter designt sind als ARM-Prozessoren?


Die englischsprachige Wikipedia hat im Artikel über zukünftige Fertigungstechnologien zahlreiche interessante Quellen verlinkt. Da kommen in den nächsten Jahren und Jahrzehnten noch riesige Fortschritte.

In wie fern sich das ausweitet? Früher waren das riesige Fortschritte von ... 90nm>65nm>45nm>22nm Fertigung. In den nächsten Jahren wird sich zeigen was für eine neue Technilogie kommen wird, vermutlich auch 3D Transistoren.
 
Zurück
Oben