News Cannon Lake: Die erste 10-nm-CPU wird für Intel zum Albtraum

Die großen Sprünge wie damals um die Jahrtausendwende rum gibt's nur noch im Mobilbereich. Der auf kurz oder lang eh Laptop und Desktop ersetzen wird. Das erste MacBook mit ARM wird nicht mehr lange auf sich warten lassen. Erste Windows Notebooks mit ARM ja auch schon. Und in 10 Jahren dann nur noch das Smartphone mit Docking.
 
Ach ja, laut 3DCenter Forum soll das taiwanesische VIA (die neben Intel und AMD noch über eine X86 Lizenz verfügen) anscheinend auch planen per Joint-Venture mit der Stadtverwaltung von Shanghai (als Zhaoxin Semiconductor Co. Ltd.) wieder dicker in den X86er Markt einzusteigen und angeblich peilt man an mit AMD in einigen Jahren leistungstechnisch gleichziehen zu können (ob man das so einfach abkupfern wird können?) ...

... 'mal schauen was daraus wird bzw. wie realistisch diese Bestrebungen sein werden, wobei eigentlich Erfolg nur auf dem chinesischen Markt ausreichend sein dürfte, um das Vorhaben rechtfertigen zu können damit man zumindest dort Intel und AMD Paroli bieten kann.
 
Intel 10nm macht doch nur Sinn, wenn die Produktionskosten zu 14nm sinken (oder etwa gleich bleiben) aber die Leistung steigt.
Ein Ice Lake 6 Kerner soll ja möglichst weniger verbrauchen aber mehr leisten und nicht teurer sein als ein CL 6 Kerner und so etwas hinzubekommen ist anscheinend doch nicht so einfach.

Ich finde diesen Bericht etwas langweilig, wenn man nicht sagen kann wo die Probleme liegen. Ist die Yield Rate zu schlecht oder paßt die Leistung noch nicht oder wo ist das Problem?
 
der_infant schrieb:
Die großen Sprünge wie damals um die Jahrtausendwende rum gibt's nur noch im Mobilbereich. Der auf kurz oder lang eh Laptop und Desktop ersetzen wird. Das erste MacBook mit ARM wird nicht mehr lange auf sich warten lassen. Erste Windows Notebooks mit ARM ja auch schon. Und in 10 Jahren dann nur noch das Smartphone mit Docking.

Moore's law gilt immer noch.
In den letzten 10 Jahren hat sich extrem viel getan. Schau mal ein Spiel aus dem Jahr 2008 an und vergleiche mit der Grafik von heute. Deine These, es würde diesen Fortschritt nur im Mobilbereich geben, ist schlichtweg falsch. Gerade dieser Bereich stagniert zudem zuletzt wieder recht stark, da auch die Akkutechnik und die Kompaktheit vieles limitiert.

ARM ist gut, wenn das Gerät effizient sein muss. Also Smartphones und Notebooks. Tablets ebenso. Diese Geräte ersetzen aber nicht einen Hochleistungsrechner. Wenn du jetzt fragst, für was man das braucht, gebe ich es auf... und Nein, nicht nur für Gaming.

Für mich wird es auch in 10 Jahren keine Option sein das Smartphone an die Dockingstation zu hängen und als Desktop-Ersatz zu verwenden. Mir würde schlichtweg auch dann die Leistung nicht reichen. Vielmehr sind und bleiben solche Geräte eine Ergänzung.
Ersetzen tun diese überhaupt nichts. Tablets haben auch bis heute den normalen Computer nicht abgelöst, da es schlichtweg zwei völlig unterschiedlich verwendete Geräte sind.
 
Es stagniert der Smartphonemarkt genauso wie der Notebook/Tabletmarkt. Der Unterschied ist nur dass Smartphones auch so hin werden und mit diversen Tricks die Leute zum Kauf von neuem Zeugs überredet werden.
Der Tabletmarkt ist sowieso tot.
 
Vielleicht mache ich es mir auch zu einfach... was spricht aus Intels Sicht gegen einen gut vorselektierten 8/16er mit ca. 150 W TDP in 14 nm-Fertigung und verlötetem Heatspreader für den anspruchsvollen Consumermarkt?

Wenn ich nur einen Hammer habe, muss ich mir die Probleme halt zu Nägeln machen. Eine Erklärung könnte natürlich sein, dass sich bei Intel außer der PR-Abteilung niemand für den "anspruchsvollen Consumermarkt" ernsthaft interessiert.
 
Zuletzt bearbeitet:
Chismon schrieb:
Ach ja, laut 3DCenter Forum soll das taiwanesische VIA (die neben Intel und AMD noch über eine X86 Lizenz verfügen) anscheinend auch planen per Joint-Venture mit der Stadtverwaltung von Shanghai (als Zhaoxin Semiconductor Co. Ltd.) wieder dicker in den X86er Markt einzusteigen und angeblich peilt man an mit AMD in einigen Jahren leistungstechnisch gleichziehen zu können (ob man das so einfach abkupfern wird können?) ...

... 'mal schauen was daraus wird bzw. wie realistisch diese Bestrebungen sein werden, wobei eigentlich Erfolg nur auf dem chinesischen Markt ausreichend sein dürfte, um das Vorhaben rechtfertigen zu können damit man zumindest dort Intel und AMD Paroli bieten kann.
Oder anders ausgedrückt: man will in ein paar Jahren so schnell sein wie aktuelle Ryzen
 
oldmanhunting schrieb:
Ich finde diesen Bericht etwas langweilig, wenn man nicht sagen kann wo die Probleme liegen. Ist die Yield Rate zu schlecht oder paßt die Leistung noch nicht oder wo ist das Problem?

Warum ist der Bericht langweilig, nur weil Intel nicht mit Internas rausrückt?
Kein Newsschreiber wird jemals Zugang zu Intels Fertigungshallen haben, aber aus diversen Fakten kann man sich sehr plausible Theorien erschließen, wie in diesem Fall geschehen.
 
Winder schrieb:
Mit der Fertigungstechnik haben alle Probleme.
Bei AMD z.B. scheint alles schief zu laufen, bei dem etwas mit Grafik integriert ist.
Vega 10 ist kaum zu bekommen, Vega 11 verschoben und Raven Riege klappt auch nicht so Recht.

Alle haben Probleme, Mal sehen wie es weiter geht.

Wenn alle so große Probleme mit 10nm haben, wieso gibt’s dann soviele iPhone 8 / Plus / X ?
Der Apple A11 läuft doch bei TSMC bereits in Massen als 10nm FinFET vom Band. Hier gabs zwar Gerüchte zu vergleichsweiser niedriger Ausbeute, trotzdem läuft hier schon die Massenfertigung.

Und da Apple, abgesehen vom Display des X, wohl keine größeren Lieferschwierigkeiten hat, würde ich die Aussage „Alle haben Probleme“ erstmal relativ sehen..
 
Zuletzt bearbeitet:
Naja TSMC erster 10NM Wurf dürfte eine ähnliche Gategrösse und Dichte wie Intels 14NM++ haben.
Wie schon geschrieben wurde ist GF 7NM Fertigung mit intels 10NM(+?) vergleichbar.
Wobei ich GFs Variante, zumindest auf dem Papier, als minimal überlegen sehe.
 
Zuletzt bearbeitet:
Schalk666 schrieb:
Wie Amd das mit den CCX macht gefällt mir eig ganz gut, mit (teil-)defekten Chips können sie noch Ryzen 3 bauen und haben wenig Elektroschrott.
Der erste native und nicht besonders gute 4 Kerner war ja (wenn ich mich richtig errinnere) von Amd und Intel hatte zu Anfang noch 2 Dualcores zusammengelötet als Core2Quad.

Richtig. Der erste Intel-Quadcore war der Nehalem - Start der Core-i-Serie. Alles vorher waren Dualcores oder zwei Dualcores als Core2-Quad.

So schlecht waren aber die ersten X4 von AMD nicht! Wobei AMD damals den 65nm-Prozeß nicht so wirklich gut zum Laufen gebracht hat. Richtig gut waren dann die 45nm-CPUs (PhenomII und AthlonII).
 
KillerPlauze090 schrieb:
denke als gamer hat man mit nem skylake dann letzten endes alles richtig gemacht, vor ende 2019 kommt somit de facto nix neues zumal mehr kerne sich erst mit der zeit lohnen werden für gaming, falls das überhaupt so schnell passiert.

Ähnliches haben damals Leute zu 2 vs. 4 Kerne erzählt (man beachte die empfohlenen CPUs und besonders den Abschnitt "3.2 DualCore vs. QuadCore"), und kurze Zeit später waren dann plötzlich doch überall 4 Kerne der Standard.

Das scheint sich jetzt zu wiederholen, mit Leuten die sich einzureden versuchen dass ihre 4 Kerne noch lange ausreichen würden, dabei hat man schon Anfang 2017 gesehen dass 6 und mehr langsamere CPU Kerne/Threads in Tests besser abschneiden als 4 schnellere.

Und dank AMD Ryzen und mit Intel Coffee Lake sind 6 Kerne schon 2017 Mainstream gewesen, da wird sich die Spielentwicklung höchstwahrscheinlich auch dran anpassen.

Da werden wohl noch einige Leute mit 4 Kernen/Threads ein ziemlich böses Erwachen haben in Zukunft.

Code:
http://web.archive.org/web/20081217020318/https://www.computerbase.de/forum/showthread.php?t=215394
http://web.archive.org/web/20090716195529/https://www.computerbase.de/forum/showthread.php?t=215394
 
Zuletzt bearbeitet: (Scheiß Foren Update, Links gefixt.)
andr_gin schrieb:
Also mal so zum Vergleich:
Der Apple A11 in 10nm hat 4.2 Mrd. Transistoren bei 89mm² also 47 MTrans/mm²
Ein Skylake Core i7 mit GT2 Grafik in 14nm hat 1.75 Mrd. Transistoren bei 122mm² also 14 MTrans/mm²

Soviel also zum Thema die 10nm der Mitbewerber sind nur Marketing. Was die reine Transistordichte angeht so ist Intel bereits jetzt um den Faktor 3 zurück.
Wenn man sich die Transistordichten in Bezug auf die Strukturgröße ansieht so sieht man das Intel seit Sandy Bridge fast einen ganzen Marketingschritt eingeschoben hat.

wenn du jetzt noch die erreichbaren ghz anguckst, geht dir vielleicht ein licht auf, warum intel weniger transistoren pro mm² verpackt ;).
 
Hallo zusammen,

@ Don Sanchez

Ähnliches haben damals Leute zu 2 vs. 4 Kerne erzählt

Vielleicht im Traum. Und in den Phantasievorstellungen einiger Marketingfuzzys. Real sind 4-Kern Prozessoren seit ca. Mitte 2014 wirklich breit nötig in Spielen und auch da erst nur vereinzelt, Ausnahmen betstätigen im übrigen nicht die Regel. Da gab es erst Spiele, die einen 4-Kern Prozessor wirklich erforderlich machten, damit das Game wirklich überhaupt startet. Und in der Ganzen Breite nutzen Spiele erst jetzt langsam 4 Kerne richtig. Und ich Rede davon, 4 Kerne richtig spürbar zu Nutzen. Vom Anwendungsbereich ganz zu Schweigen.

Keine Ahnung was du mit deinen Links Implizieren willst, die einfach die Computerbase-Empfehlungen für PC Zusammenstellungen wiedergeben. Was das mit der Realität zu tun hat, wird wohl dein Geheimnis Bleiben. Noch dazu geht es bei diesen Zusammenstellungen zuvorderst um das Preis- / Leistungsverhältnis.

Wer Heute einen 4 Kern Prozessor ab Haswell sein Eigen nennt, braucht sich nach wie vor so schnell noch keine Sorgen zu machen. Tatsächlich sollten auch Sandys noch einige Zeit für Spiele Reichen, wenn sie Übertaktet sind. Dazu ist die Verbreitung derselben Respektive der Neueren Mehrkernprozessoren mit mehr als 4 Kernen einfach auch viel zu Groß.

So long....
 
Zuletzt bearbeitet:
Das kommt darauf an wie man zockt. Für 1080p und vielleicht 1440p reichen die alten CPUs.
Aber bei 4K braucht man damit nicht mehr ankommen, da eine 1080Ti bis zu 30-40 FPS ausgebremst werden kann. Hier gab es ja einen Test dazu, nur kann der 8700k problemlos auf 5ghz statt 4,5ghz takten - dies hat man dann wieder nicht bedacht.

Wenn dann noch die 6-8 Core Optimierungen in die Spiele fließen, dann werden es 50-60 FPS sein. Da 6 und 8 Kerner nun bereits über ein halbes Jahr alt sind, dauert dies nicht mehr so lange.
 
Hallo zusammen,

@ rob-

Das kommt darauf an wie man zockt. Für 1080p und vielleicht 1440p reichen die alten CPUs.
Aber bei 4K braucht man damit nicht mehr ankommen, da eine 1080Ti bis zu 30-40 FPS ausgebremst werden kann. Hier gab es ja einen Test dazu, nur kann der 8700k problemlos auf 5ghz statt 4,5ghz takten - dies hat man dann wieder nicht bedacht.

Das hat aber nichts mit der Intention des Kollegen zu tun. Im übrigen schau mal, wieviel Leute unter 4K Spielen bzw. 4K Gaming betreiben oder einen solchen Monitor überhaupt ihr Eigen Nennen.

Wenn dann noch die 6-8 Core Optimierungen in die Spiele fließen, dann werden es 50-60 FPS sein. Da 6 und 8 Kerner nun bereits über ein halbes Jahr alt sind, dauert dies nicht mehr so lange.

Das ist genau der Punkt. Es wird noch Jahre dauern. Damit ein Spiel richtig 6-8 Kerne spürbar zu Nutzen weiß, muß die Engine von Grund auf dafür entwickelt werden. Das geht nicht von Heute auf Morgen, schon gar nicht in einem Halben Jahr. Wie schon bemerkt, schau mal, wie lange es gedauert hat, bis 4 Kern Prozessoren halbwegs spürbar in Spielen genutzt wurden. Es ist nunmal nicht so einfach, Multithreading zu Programmieren.

So long...
 
Zuletzt bearbeitet:
Okay verstanden, bei Canon Lake gibts Porbleme, aber was heißt das für die Chipsätze? Auf 390 Warten? B370 dann besser als Z370? Oder ist naur USB 3.1 Gen2 nativ und WLAN?
 
Sun_set_1 schrieb:
Wenn alle so große Probleme mit 10nm haben, wieso gibt’s dann soviele iPhone 8 / Plus / X ?
Der Apple A11 läuft doch bei TSMC bereits in Massen als 10nm FinFET vom Band. Hier gabs zwar Gerüchte zu vergleichsweiser niedriger Ausbeute, trotzdem läuft hier schon die Massenfertigung.

Weil die Chips nicht so komplex und damit weniger Fehleranfällig sind. Je größer und komplexer die Teile sind desto höher ist die Warscheinlichkeit das ein Defekt an einer kritischen Stelle den Chip killt.
 
smart- schrieb:
Moore's law gilt immer noch.
In den letzten 10 Jahren hat sich extrem viel getan. Schau mal ein Spiel aus dem Jahr 2008 an und vergleiche mit der Grafik von heute. Deine These, es würde diesen Fortschritt nur im Mobilbereich geben, ist schlichtweg falsch. Gerade dieser Bereich stagniert zudem zuletzt wieder recht stark, da auch die Akkutechnik und die Kompaktheit vieles limitiert.

ARM ist gut, wenn das Gerät effizient sein muss. Also Smartphones und Notebooks. Tablets ebenso. Diese Geräte ersetzen aber nicht einen Hochleistungsrechner. Wenn du jetzt fragst, für was man das braucht, gebe ich es auf... und Nein, nicht nur für Gaming.

Für mich wird es auch in 10 Jahren keine Option sein das Smartphone an die Dockingstation zu hängen und als Desktop-Ersatz zu verwenden. Mir würde schlichtweg auch dann die Leistung nicht reichen. Vielmehr sind und bleiben solche Geräte eine Ergänzung.
Ersetzen tun diese überhaupt nichts. Tablets haben auch bis heute den normalen Computer nicht abgelöst, da es schlichtweg zwei völlig unterschiedlich verwendete Geräte sind.
Ich denke du unterschätzt Arm und die mögliche Leistungsfähigkeit künftiger Smartphones.
Der Geschwindigkeitszuwachs bei Arm war in den letzten 10 Jahren im Vergleich zum Zuwachs bei x86 extrem.
Insbesondere die Custom Designs wie zum Beispiel bei Apple sind jetzt schon ausreichend schnell für die meisten Desktop Anwendungen.
Geht es in dem Tempo weiter dürfte der Leistungsvorsprung von x86 CPUs in 10 Jahren quasi verschwunden sein.

Mir käme es sehr gelegen nur noch ein einziges Gerät für alles in Verbindung mit passenden Docking Stationen zu haben. Auch wenn ich es mir aktuell auch schwer vorstellen kann da mir die existierenden Notebook CPUs häufig zu langsam sind und vor allem viel zu wenig RAM eingebaut werden kann.
 
Hallo zusammen,

@ smart-

Schau mal ein Spiel aus dem Jahr 2008 an und vergleiche mit der Grafik von heute.

Nun, ich schaue mir sogar ein Spiel aus dem Jahr 2007 an, November 2007 um genau zu sein. Nämlich Crysis 1. Und die Grafik von einem bald 11 Jahre alten Spiel hält nach wie vor mit heutigen der Grafisch besten Spiele mit.

Deine These, es würde diesen Fortschritt nur im Mobilbereich geben, ist schlichtweg falsch.

Sie ist aber auch nicht ganz unrichtig. Es ist nunmal nicht von der Hand zu Weisen, daß du mit einem Sandy auch in heutigen Spielen noch auf der Höhe der Zeit bist, jedenfalls Übertaktet. Die Gründe Spielen jetzt keine Rolle in dem Sinn, denn der mehr oder weniger Stillstand bei x86 resultierte ja hauptsächlich weil kein vernünftiger Wettbewerb mehr da war.

Für mich wird es auch in 10 Jahren keine Option sein das Smartphone an die Dockingstation zu hängen und als Desktop-Ersatz zu verwenden.

Mit solchen Aussagen wäre ich sehr vorsichtig. Insbesondere wenn man sich mal vor Augen hält, was sich seit 2007 alles im Mobilen Bereich getan hat. Ein Snapdragon 835 ist nicht weit von einem Celeron weg. Nur um das mal zu verdeutlichen, der Snapdragon 845 soll nach bisherigen Berichten nochmal 30 % schneller als der 835 sein und dabei 10 % sparsamer. Wie gesagt, ich wäre mit solchen Zukunftsvisionen vorsichtig.

So long...
 
Zuletzt bearbeitet:
Zurück
Oben