News 10-nm-CPU: Intel bestätigt Cannon Lake auch ohne Grafikeinheit

Zotac2012 schrieb:
Bis Dir mal die dezidierte GPU aus welchen Gründen auch immer ausfällt und da gibt es viele Möglichkeiten [...]

Da brauch ich mir keine großen Gedanken machen, Ersatzteile liegen bei mir genug herum um den halben Rechner bei Bedarf temporär zu ersetzen.
 
Volker schrieb:
Oder die ist kaputt und es muss eine Zwangslösung her. Und das kann niemals der Plan von Intel gewesen sein.

Man weiß es nicht. Auch die APUs von AMD gab es immer mal wieder als "Athlons" ohne iGPU.
 
Packichte = Kostenersparnis mehr chips aufn wafer
Nutzen fürn Kunden = 0
Intel hat Probleme das nicht genug chips fehlerfrei sind. und somit die ausbeute nicht lukrativ gegenüber 14nm ist
das man da gern die tdp senken kann ist nicht gesichert aber anzunehmen
nämlich kleinerer chip = weniger vcore weniger ampere weniger stromverbrauch.
Nur klappt das ncint mehr so gut wie vor 2011 von 45nm auf 32nm ~30% Stromersparnis
von 32 auf 22nm 20% weniger strom
22 auf 14nm 1% weniger strom bei gleichen Takt.
physik ist eine Sau, macht einfach nicht das was man erwartet
22nm 60nm abstand
14nm 42nm abstand
10nm soll auf 35-38nm kommen
link zu realen finpitch
https://www.golem.de/news/fertigungstechnik-der-14-nanometer-schwindel-1502-112524.html
Die gründe warum bei kleineren Strukturen dennoch die TDP gleich bleibt ist einfach leckströme
man müsste um wirklich bessere effizeinz zu haben je kleiner die struktur wird niedriger takten
Nur ist dann der Leistungsvorteil weg.
Also warum dann shrinken um dann mehr chips bei weniger kosten zu machen. Da wird nichts besser im idealfall steigt der maximale Takt.
Eher wird der stromverbauch bei gleichen takt minimal besser.
Bin echt gespannt ob 7bnm und 10nm ab amd zen4, intel neue arch ab 2021 und Materialänderung von silizium weg besser wird.
EUV ist auch spannend aber limitiert wird man dennoch vom sand.
Kunstfaser wäre ein schritt oder ähnliches was eine dichtere atomstruktur hat
Aber das ist Technik ab 2022 bis 2030
Wenn der stein nicht aufschlägt
 
Ralf555 schrieb:
Das ist ein schlechtes Beispiel, da der 2500U mit vielen Treiberproblemen zu kämpfen hat, im Gegensatz zu der Intel iGPU. Im übrigen sind 100% bei dem Transistor aufwand nichts besonderes, da Intel mit einer 2015 (Gen9) Architektur am Start und die GT2 etwa halb so groß ist, wenn überhaupt.

Das Gegenteil bei den Treibern ist der Fall, laut Aussage von CB!
Manche Spiele starten gar nicht erst mit den Intel Treibern!

Wenn es übrigens nichts besonderes ist, sollte doch Intel selber mal eine gescheite IGPU bauen, ach nein warte, sie kaufen sie ja jetzt bei AMD ein!
 
Zuletzt bearbeitet:
Atent123 schrieb:
Nein allerdings ist die Packdichte die laut Intel mit dem 10nm Prozess möglich ist brutal.
Intel spricht von bis zu 100 Mio Transistoren pro mm2 (das wäre mehr als doppelt so viel wie TSMCs 10nm Prozess und dürfte wohl immer noch über dem 7nm TSMC Prozess liegen)
Wenn dem wirklich so sein sollte, ist es umso beeindruckender, dass der Ryzen in 14 nm mit den Intel CPUs in 14 nm konkurrieren können. Man stelle sich einen Ryzen mit Intels Fertigung vor, am besten dann direkt in 10 nm...
 
Ralf555 schrieb:
Du hast absolut keine Ahnung.

Ralf555 schrieb:
Das ist ein schlechtes Beispiel, da der 2500U mit vielen Treiberproblemen zu kämpfen hat, im Gegensatz zu der Intel iGPU.

Brrr.... also wer ein skull canyon mal ernsthaft für 3D inhalte versucht hätte zu benutzen würde sich nicht so offensichtlich aus dem fenster lehnen. wie gut der Raven Vega Treiber hingegen aktuell ist kann ich nicht sagen. Schlechter kann er eigentlich nicht sein.
 
Zuletzt bearbeitet von einem Moderator:
Wer braucht den heutzutage die Grafikeinheit auf den Prozessor die den Arbeitsspeicher wegnimmt wo der jetzt so wertvoll ist,
dann doch lieber eine normale hochmoderne Grafikkarte wie zum beispiel eine Geforce GT !


stevefrogs schrieb:
Zumal mir auch noch nie eine GPU ausgefallen ist, trotz teilweiser sehr langer Nutzungsdauer (die 8800GT hat sieben Jahre geschuftet).

Das ist ganz normal ich selber habe noch eine sehr gute ASUS GeForce GT 430 mit 1024 MB.

frankkl
 
Zuletzt bearbeitet:
Warum immer diese Stellungskriege in Intel News? Warum kann AMD nicht einfach mal aus Intel News raus kommen und nur in AMD News ein Thema in dieser Form sein?
Das mag zwar für viele Leute ein emotionales Thema sein ihren Verein zu supporten, hat aber nix mehr mit dem Thema zu tun.

Hier geht es um Notebook-CPUs, eure ollen Grafikkarten haben damit nix zu tun, es wird die Frage sein welche Konfigurationen mit solchen CPUs überhaupt ohne GPU sinnvoll sind. Notebook für mich nicht, doch aber performante HTPCs.
 
Zotac2012 schrieb:
Auch wenn Du es nicht glaubst oder verstehst, es gibt doch wirklich Menschen in diesem Land, die haben eben nicht noch irgendwo mal eine alte Grafikkarte rumfliegen.
wie kommst du darauf? Wo habe ich sowas behauptet?
Zotac2012 schrieb:
Klar kann man sich Ersatz besorgen, dumm nur, wenn Dir ein Missgeschick passiert und es Samstagabend ist, dann ist eben nichts mit mal schnell eine neue kostengünstige Grafikkarte zu kaufen! ;)
Wenn, wenn, wenn... Wenn deine Graka kaputt geht, wenn es Samstag Abend ist, wenn du in den nächsten 48 Stunden an dem Computer arbeiten musst (und Handy nicht ausreicht).

Denkst du dich auch mit anderen Ersatzkomponenen ein (NT, Mainboard, Festplatte, maus Tastatur, Bildschirm)? Wie schon gesagt, wenn die non-ryzen CPU für dich so oder so der bessere (oder zumindest ähnlich guter) Deal ist nimmt man die iGPU natürlich gerne mit. Nur als Ausschlussfilter finde ich es übertrieben.
 
Die eigentliche Frage ist: Wofür kann so eine CPU sinnvoll eingesetzt werden? Keine GPU bedeutet ja dass zwingen eine extra Grafikkarte verbaut werden muss und im Low Cost Bereich sind diese schon echt selten geworden. Klar für Spieler ist die interne GPU unnötig aber hierfür dürften dann die 2 Kerne kaum ausreichen.
Das einzige was mir jetzt spontan einfallen würde sind Miningsysteme wo dann zu einer schwachen CPU 2 fette Grafikkarten dazu gesteckt werden. Die Frage ist nur ob vom dem Markt in 1 Jahr noch viel übrig sein wird da die Kurse fallen und bestehende Miningsysteme ja schon angeschafft existieren. Da wird sich die Frage einer Neuanschaffung kaum mehr stellen.
 
Die Essenz aus dieser News ist, dass Intel 10nm-Fertigung eine absolute Katastrophe ist. Die Yields müssen wohl richtig richtig schlecht sein, dass man Müll, der bei anderen Herstellern wieder eingeschmolzen werden würde, lieber noch fürn Fuffi verkauft. Vor allem: Besserung ist ja überhaupt noch in Sicht. 10nm+ wird nur ein Zwischenschritt und erst 10nm++ wird 14nm++ in der Performance überholen können. Also irgendwann 2020/21?
Naja immerhin scheint bei Low-End Prozessoren die Packdichte und Energieeffizienz zu stimmen. Enthusiasten werden sich bei Intel noch LANGE mit dem Skylake-X Nachfolger anfreunden müssen.
 
syfsyn schrieb:
Intels release Fahrplan ist extrem ins schleudern gekommen
zuerst das 10nm Desaster (geplant war 2016)
In den News hieß es letztens immer geplant war 2015.
Das war halt irgendeine alte lose Aussage, denn es hätte doch gar nicht in Tick–tock gepasst, von dem man längst weiß dass es langsamer und nicht schneller wird. 2015(Skylake) war das erste und 2016(Kaby Lake) das zweite Jahr für 14nm, ganz normal wie es immer üblich war.
Sprich wenn es bis August was in 10nm gibt, wurde doch nur ein Jahr, eine Generation(Coffee Lake) dazwischen geschoben. Was kein Weltuntergang ist, doch absehbar war und auch öffentlich gesagt wurde.
 
DonL_ schrieb:
Das Gegenteil bei den Treibern ist der Fall, laut Aussage von CB!
Manche Spiele starten gar nicht erst mit den Intel Treibern!

Wenn es übrigens nichts besonderes ist, sollte doch Intel selber mal eine gescheite IGPU bauen, ach nein warte, sie kaufen sie ja jetzt bei AMD ein!

Patente, Patente und nochmal Patente. Ob nvidia und AMD/Ati die so einfach weitergeben, auch gegen Bezahlung?
 
Seit 2015 wird über Probleme der 10nm Fertigung berichtet. Es sollten schon Ende 2015 ursprünglich Mobile Chips in dem Fertigungsprozess erscheinen. Dann wurde es 2016.. 2016 wurde es 2017 usw.

Die nächste Desktop-Iteration sollte eigentlich schon in 10nm+ erscheinen, da erst dieser eine höhere Leistung als 14nm++ erlauben würde. Nun läuft der 10nm Prozess immer noch nicht gut genug, da kann sich jeder dann denken wie weit wir von 10nm+ noch entfernt sind. Spannend wird es ob GF seinen 7nm Prozess dieses Jahr soweit kriegt, dass ab 2019 damit CPU's gefertigt werden. Scheinbar sind sie zumindest im Plan.
 
andi_sco schrieb:
Patente, Patente und nochmal Patente. Ob nvidia und AMD/Ati die so einfach weitergeben, auch gegen Bezahlung?

Intel hat selbst alle nötigen Patente, sie haben ja schon 2 Anläufe in Richtung Grafikkartenmarkt unternommen, 2007 bis 2010 Larabee und 2014/15 etwas in Kooperation mit Nvidia im Bereich deep learning, beides ist grandios, mit einer Menge Geld versenken, gescheitert.
Aber anscheinend versucht man ja mit Raja Koduri den nächsten Anlauf, nur substantielles hat der bis jetzt nicht auf die Beine gestellt (auch nicht bei AMD).
 
ich möchte gerne Tigerlake und Zen 4 :)
 
Wenn durch das deaktivieren spürbar weniger Abwärme entsteht, ist das ein guter Pluspunkt.
Mir sind solche CPU´s lieber, da ich die interne eh nicht brauche bzw. habe ich eine Ersatzkarte.
 
Pure Existenz schrieb:
Wenn durch das deaktivieren spürbar weniger Abwärme entsteht, ist das ein guter Pluspunkt.
Mir sind solche CPU´s lieber, da ich die interne eh nicht brauche bzw. habe ich eine Ersatzkarte.

Kann ich auch einfach bei meiner CPU mit iGPU die iGPU im Bios deaktivieren, dann hast du den selben Effekt?
Also ich würde auch immer ne iGPU mitnehmen wenn das im Preis nicht viel ausmacht.
 
Rock Lee schrieb:
Die Essenz aus dieser News ist, dass Intel 10nm-Fertigung eine absolute Katastrophe ist. Die Yields müssen wohl richtig richtig schlecht sein, dass man Müll, der bei anderen Herstellern wieder eingeschmolzen werden würde, lieber noch fürn Fuffi verkauft.

Sag das mal AMD die defekte R5 bzw R7 als R3 abverkaufen. Sprich: das macht jeder Hersteller, und es ist gut daß hier die Resourcen geschont werden.
 
Zurück
Oben