News 10-nm-CPU: Intel bestätigt Cannon Lake auch ohne Grafikeinheit

DonL_ schrieb:
Intel hat selbst alle nötigen Patente, sie haben ja schon 2 Anläufe in Richtung Grafikkartenmarkt unternommen, 2007 bis 2010 Larabee und 2014/15 etwas in Kooperation mit Nvidia im Bereich deep learning, beides ist grandios, mit einer Menge Geld versenken, gescheitert.
...

Du vergisst die i740 AGP Karte.
Larabee war Raytracing und damit anders?
Und haben sie wirklich alle nötigen Patente?
 
Aldaric87 schrieb:
Seit 2015 wird über Probleme der 10nm Fertigung berichtet. Es sollten schon Ende 2015 ursprünglich Mobile Chips in dem Fertigungsprozess erscheinen. Dann wurde es 2016.. 2016 wurde es 2017 usw.

Du könntest mit deiner Skepsis durchaus Recht haben. Normalerweise haut Intel in der Regel zuerst die Topmodelle (z.b. wie bei Sky, Kaby und Coffee) raus. Bei der Eispfütze kommen zuerst die "Billigteile" mit 2-4 Kernen und von 6-8 Kernern in 10nm ist noch nichts in Sicht. Das kann man ohne Fanbrille schon als Zeichen sehen dass die 10nm Fertigung bei Intel alles andere als optimal läuft.
 
stevefrogs schrieb:
Dann kommt halt eine alte GPU als Provisorium rein. Bei mir liegt noch eine 8800GT im Schrank, dauert zwei Minuten die zu holen und einzubauen. Bei meinem Vater (10 Minuten entfernt) liegt zumindest eine 7600GS rum, die würde es auch für ein paar Tage tun. Und ein Freund, 5 min entfernt wohnt hat eine GTX 770 rumliegen, die er nicht mehr braucht, auch die könnt ich notfalls schnell ausborgen.

Ich behaupte mal ganz frech, dass der Durchschnitts-PC-Bastler (und viele Normalnutzer auch nicht) kein Problem hat den Ausfall einer GPU kurzfristig zu überbrücken, also seh ich auch keinen Grund unbedingt eine CPU mit integrierter Grafik zu kaufen.

Sehe ich auch so. Ich habe 2* 8800GTS über dir 560TI bis zur 770 Lightning hier in der Vitrine. Bin also ganz entspannt:lol: Ich kenne keinen der nicht -Minimum- einen Ersatz hat, oder sich wie du schon sagst..... eine leihen könnte. Die iGPU ist doch nichts als..... und für uns Gamer eh nicht zu brauchen.

Mal sehen wo wir Ende des Jahres sind:D
 
Zuletzt bearbeitet:
andi_sco schrieb:
Du vergisst die i740 AGP Karte.
Larabee war Raytracing und damit anders?
Und haben sie wirklich alle nötigen Patente?

Darf bezweifelt werden, sonst hätte Intel damals wohl kein Lizenzabkommen zur Nutzung von Nvidias Grafiktechnologie abgeschlossen. Allgemein dürfte es schwer sein GPUs herzustellen ohne irgendein Patent von AMD oder Nvidia zu verletzen (meinetwegen noch S3). Genau so wie es schwer ist eine neue CPU herzustellen ohne in dem Sektor von irgendjemandem ein Patent zu verletzen.

Nicht ohne Grund freuen sich Leute die sich für Open Source Hardware interessieren das die Patente für die SuperH [0] Architektur von Hitachi auslaufen, oder teilweise schon ausgelaufen sind. Da man die Architektur nun einfach verwenden kann und diese wohl durch die lange Existenz Patenterprobt sein dürfte. ARM hat damals auch einige SuperH Patente lizensiert um sich abzusichern.

[0] https://de.wikipedia.org/wiki/SuperH
 
JZedtler schrieb:
Aldaric87 schrieb:
Seit 2015 wird über Probleme der 10nm Fertigung berichtet. Es sollten schon Ende 2015 ursprünglich Mobile Chips in dem Fertigungsprozess erscheinen. Dann wurde es 2016.. 2016 wurde es 2017 usw.…]
Du könntest mit deiner Skepsis durchaus Recht haben. Normalerweise haut Intel in der Regel zuerst die Topmodelle (z.b. wie bei Sky, Kaby und Coffee) raus. Bei der Eispfütze kommen zuerst die "Billigteile" mit 2-4 Kernen und von 6-8 Kernern in 10nm ist noch nichts in Sicht. Das kann man ohne Fanbrille schon als Zeichen sehen dass die 10nm Fertigung bei Intel alles andere als optimal läuft.
Ach, Quatsch mit Soße!
Natürlich muß Intel selbst im Jahr 2018 noch Dual-Core rausbringen, weil sie schlicht der Nachfrage nicht gerecht werden können, daß sieht doch jedes Kind. @Zotac2012 hat das doch sogar prominent erklärt und aufgezeigt, warum selbst heutzutage noch Dual-Cores ihre Daseinsberechtigung haben. Nicht zuletzt CB selbst adelt doch diese offensichtlichen Fakten;
Solch eine CPU aber dann auch wirklich anzubieten deutet darauf hin, dass die Stückzahlen entsprechend groß sind – sonst würden diese sprichwörtlich einfach unter den Tisch fallen und nicht in den Handel kommen.
Zitat: Volker Riska, Ressortleiter PC-Architektur, ComputerBase
Also manchmal …

In diesem Sinne

Smartcom
 
bensen schrieb:
Oder die Ryzen 4 Kerner, wo 50 % des Dies deaktiviert ist?
Welche es aber ab 2000 Serie außerhalb OEM vermutlich nimmer geben wird, weil diese bereits durch bald kommende Ryzen APUs ersetzt werden. Hätte AMD das nicht gemacht, hätte man neben R7 und den R5 mit 6 Cores nichts anders mehr anzubieten gehabt, außer eben ältere Modelle basierend auf Bristol Ridge.

http://www.pcgames.de/AMD-Firma-238...n-von-Zen-CPUs-erfreut-AMD-yield-die-1228366/

Alle ohne GPU und teils noch zusätzlich die Hälfte der Kerne deaktiviert.
Ebenso eine Marktselektierungund solche Athlon gab es nur im Desktop. Von Bristol Ridge gab es sogar nur mehr ein Athlon Modell.
Hier (News) geht es aber höchstwahrscheinlich nur um Notebook Chips, deshalb auch diese Aussage von CB.

Aber solange unbekannt ist, wofür man die Chips nutzen möchte und zu welchem Preis, ist jegliche Aussage darüber einfach sinnlos. Was ist wenn solche Chips für NAS oder sonstige Anwendungen wo GPUs keine so wichtige Rolle spielen genützt werden sollen ?
Oder vllt gibt es hier wieder eine Version mit AMD GPU. Auch unklar, wie viele Modelle es ohne IGP überhaupt geben wird. Deshalb kann man auch kaum darüber eine Aussage machen, wie gut denn die Ausbeute "wirklich" ist.

Anderseits erinnert das ganze doch ein wenig auch an Braodwell

Du behauptet ja auch felsenfest, dass es erwiesen ist, dass Zen 2 in Q3, spätestens Q4 dieses Jahres kommt.
Glaube ich auch nicht, AMD bringt Zen+ genau aus dem Grund, weil sie die Produktion der 7nm Ryzen2 Chips zuerst für Server Produkte ausliefern möchten (meine Vermutung). Mit Zen+ nehmen sie sich im Desktop selbst den Druck, so schnell wieder eine weitere Generation bringen zu müssen.
 
Zuletzt bearbeitet:
@Smartcom5

Natürlich werden die produziert wegen der Nachfrage, das ändert aber nichts daran dass es eher die Billig CPU's sind und von den Topmodellen in 10nm noch nichts zu sehen ist. Irgendewo habe ich mal gelesen das die 2-4 Kerner in 10nm praktisch das darstellen soll was von der 10nm Fertigung gerade so verwendet werden kann und viel mehr noch nicht raus zu holen ist. Die nächsten 6-8 Kerner sollen deswegen noch im 14nm Verfahren hergestellt werden. Würde die 10nm Fertigung reibungslos laufen, würde Intel zuerst vorallem die 6-8 Kern-Topmodelle liefern wie sonst auch.
 
@JZedtler Dabei war ich mir so sicher, der Sarkasmus ist nicht zu überlesen!
Tja, so kann man sich irren …


In diesem Sinne

Smartcom
 
gaelic schrieb:
Sag das mal AMD die defekte R5 bzw R7 als R3 abverkaufen. Sprich: das macht jeder Hersteller, und es ist gut daß hier die Resourcen geschont werden.

Alles gut! Der Unterschied ist jedoch, dass AMD mit seinem Zeppelin Die von EPYC Server-Prozessoren mit 32 Kernen bis hin zum R3 alles mit einem Die abgedeckt hat. Jetzt mit 2700U und 2400G kommt grade mal eine zweite Maske zum Tragen. Da es grade mal zwei Masken gibt, sagt dies kaum etwas über die Yields aus, da selbst wenn sagen wir mal 90% aller Dies in Ordnung wären, ja trotzdem noch Entry-Level Prozessoren verkauft werden müssen.

bensen schrieb:
Was machst du mich denn so dumm von der Seite an.
Kommt natürlich sehr gut an, wenn man seinen zweiten Absatz dann direkt folgendermaßen beginnt :rolleyes:
bensen schrieb:
Wie kann man nur so einen Müll schreiben?
Die Konkurrenz würde sowas einschmelzen? Schon mal die ahtlons der letzten Jahre angeschaut? Alle ohne GPU und teils noch zusätzlich die Hälfte der Kerne deaktiviert. Oder die Ryzen 4 Kerner, wo 50 % des Dies deaktiviert ist? Aber klar, hier geht's ja auch um dein Feindbild No. 1.
Aber was will man bei dir auch erwarten. Du behauptet ja auch felsenfest, dass es erwiesen ist, dass Zen 2 in Q3, spätestens Q4 dieses Jahres kommt.

Siehe meine Erklärung Oben. Komischerweise gehst du lediglich auf meine Analogie ein, aber nicht auf die eigentliche Thematik meines Beitrags ein. Was stimmt denn nicht, mit der Annahme dass Intels 10nm eine Katastrophe ist? Es gibt unzählige Quellen, die sagen, dass 10nm verspätet kommt und Intel selbst gibt zu dass erst 10nm++ mit höherer Performance auftrumpfen kann.
12-1080.571629692.png
Deshalb wird man ja erst Mobile-Prozessoren bringen, statt Desktop, da immerhin die Leistungsaufnahme stimmen wird.
Aber die News von CBase beginnt ja bereits damit, dass es selbst für Intel ungewöhnlich ist keine Grafikeinheit bei einem absolutem Low-End Prozessor zu bringen.
Selbst die mobilen Celerons hatten immerhin 2Kerne + Grafikeinheit. Egal aus welcher Maske dieser Celeron (selbst wenn es 2 Cores mehr sind) gemacht wird. Durch die erhöhte Packdichte ist der Die mit Sicherheit kleiner als sein Kabylake-Pendant in 14nm+. Trotz kleinerem Die scheint man also eine weitere Ausschuss-Variante zu bringen => Yields sind vermutlich sehr schlecht.
Ich weiss zwar auch nicht genau wieviele Masken Intel derzeit fährt, aber hier mal ein Vergleich zwischen nem i7 7700k und einem i3 7350k, welches zeigt das Intel eben bereits für die kleineren Prozessoren kleinere Dies fährt um nicht zu viel Silizium zu verschwenden.
a7.jpg
Daher ist ein Vergleich mit AMD ("Aber die teildeaktivieren ja auch "defekte" Prozessoren!!") nur bedingt möglich. Man sollte eher Intel-intern die Vorgänger und Nachfolger vergleichen.

Eigentlich macht es ja Spaß solche Pöbelbeiträge auseinanderzunehmen. Aber es hat schon seinen Grund warum du auf meiner Ignore-Liste bist. ;)

Offtopic: Das Intel mein Feinbild No.1 ist, ist mir neu. Vielleicht ist da mehr so eine selektive Wahrnehmung wenn der Beissreflex bei Intelkritischen Beiträgen greift?
Dein Gedächtnis ist gut. Naja, teilweise. Ich habe tatsächlich geschrieben, dass ich glaube (ich habe niemals felsenfest etwas behauptet), dass aufgrund der damaligen Quellenlage, wo noch nicht bekannt war, dass 12nm erscheint sondern lediglich 14nm+ , dass es mit Zen 2 etwas schneller gehen könnte. Da AMD aber selbst den Sprung als so groß betrachtet hat, dass man es 12, statt 14nm nennt, ist da auch mehr Entwicklungsarbeit hinter als vermutet und somit kann man die Ryzen 2000er, die im April für den Desktop erscheinen schon als eigene Generation betrachten und weniger als kleiner Zwischenschritt für was ich diese Serie vorerst gehalten habe.
Im Übrigen macht es jetzt nicht so einen krassen Unterschied ob Zen2 jetzt Q4/18 kommt, oder Ende Q1/19 ;)

Wenn du magst, kannst du dir ja meine Beiträge dazu raussuchen wo ich was BEHAUPTET habe und als ERWIESEN ansehe und nicht lediglich spekuliere, aber einerseits würde es dann komplett ins Offtopic abdriften und andererseits würde ich es vermutlich auch nicht lesen. Ignore-Liste und so ;)
 
Zuletzt bearbeitet:
pipip schrieb:
Glaube ich auch nicht, AMD bringt Zen+ genau aus dem Grund, weil sie die Produktion der 7nm Ryzen2 Chips zuerst für Server Produkte ausliefern möchten (meine Vermutung). Mit Zen+ nehmen sie sich im Desktop selbst den Druck, so schnell wieder eine weitere Generation bringen zu müssen.

Nein. Seit Jeher werden sowohl bei AMD als auch bei Intel zuerst Customer Chips ausgeliefert. Warum? Validierung. Und das dauert seine Zeit. Man kann zwar hochrechnen, wie lange ein Chip mit welchem Takt und welcher Spannung laufen wird, allerdings gehen da beide kein Risiko ein und testen ihre Plattformen ausgiebig. Und ausgiebig heisst bei Zen: 12 Monate. Ryzen kam Anfang März 2017, Epyc kommt März 2018.
 
andi_sco schrieb:
Patente, Patente und nochmal Patente. Ob nvidia und AMD/Ati die so einfach weitergeben, auch gegen Bezahlung?

Genau das hat man bei Nvidia im Zeitraum von 2011 bis 2017 getan und dafür als zusätzlichen Ausgleich im Rahmen des Cross License Agreements ~ 1,5 Mrd. Dollar bekommen. Die Ausgleichszahlung gab es da Nvidia weder eine x86 Lizenz von Intel noch das Recht bekommen hat beispielsweise wieder Chipsätze herstellen zu können.

Das Agreement ist zwar ausgelaufen aber man hat untereinander weiterhin Zugriff (das Recht) die bis dahin eingereichten Patente dauerhaft zu nutzen.

http://download.intel.com/pressroom/legal/Intel_Nvidia_2011_Redacted.pdf
4.1 Term. This Agreement and the rights and licenses granted hereunder shall become effective on the Effective Date, and shall continue in effect until the expiration of the last patent licensed hereunder to expire unless such rights and licenses are sooner terminated by a Party pursuant to Section 4.2. Except as expressly set forth in Sections 4.2(a) or 4.2(b), neither this Agreement nor any of the rights or licenses granted herein may be terminated for any reason.

Aus diesem Grund war es für Intel auch nicht notwendig nach dem Ablauf des Abkommens ein neues (bezüglich GPU Patente) mit AMD einzugehen. Die Lizenzierung ist dauerhaft ("...and shall continue in effect until the expiration of the last patent licensed"). Also solange die Patente gültig sind. Es kommen nur keine neuen Patente mehr dazu. Braucht Intel auch nicht da selbst entwickelt wird (und dabei immer auch eigene, neue Patente abfallen).

DonL_ schrieb:
Wenn es übrigens nichts besonderes ist, sollte doch Intel selber mal eine gescheite IGPU bauen, ach nein warte, sie kaufen sie ja jetzt bei AMD ein!

Kurz und knapp: Was Patente im GPU Bereich betrifft ist Intel sehr gut aufgestellt. War teuer aber dafür verfügt Intel über die notwendige Basis um in den Markt überhaupt richtig einsteigen zu können. Deren Ambitionen sollte man daher also durchaus ernst nehmen.

Intel kauft bei AMD keine IGP ein (IP Block zur Integration in eigene CPU Designs) sondern eine fertige dGPU. Das ist ein großer Unterschied und wird kaum länger als 1 - 2 Produktgenerationen bestand haben.
 
Zuletzt bearbeitet:
Smartcom5 schrieb:
@JZedtler Dabei war ich mir so sicher, der Sarkasmus ist nicht zu überlesen!

Ja, sollte eigentlich klar gewesen sein, wenn man Zotacs Beiträge als ernstzunehmend Zitiert :D


Wer glaubt, dass eine Redundanz (nein eigentlich nur notdürftiger Ersatz) bei der Grafik als Ausschlusskriterium kein künstlich vorgeschobener Grund ist, den ist auch kaum noch zu Helfen. Wie oft da wohl die Grafikkarte verreckt ist.
In all den Jahren, seit ich einen PC-System habe, sind meine Ausfälle relativ überschaubar gewesen: ein Netzteil, ein Mainboard und zwei SSDs sind während der Nutzungszeit defekt gegangen, eine Grafikkarte war bisher noch nie dabei.

Netzteil defekt? Verwende trotzdem kein redundantes Netzteil.
SSD defekt? Setze trotzdem kein RAID ein.
Mainboard defekt? Sowieso keine Chance, da mal eben auf Redundanz in einem System zu setzen.

Also wer da noch eine IGP als Notersatz für einen seltenen Fall als absolutes Ausschlusskriterium voraussetzt...
Ich habe lieber ein komplettes System als (Not-)Ersatz. Laptop oder HTPC kann da zur Not bestens herhalten. Grafikkarte habe ich noch eine GTX960 und eine HD6670 rumliegen, Netzteil habe ich auch noch mein voriges auf Lager, wenn unbedingt NOTWENDIG. Würde aber nur am fortgeschrittenen Wochenende oder an Feiertagen einen Wechsel erzwingen, wenn überhaupt...

bensen schrieb:
Oder die Ryzen 4 Kerner, wo 50 % des Dies deaktiviert ist?

50% der Cores ≠ 50% des Dies. Nur mal so als Randbemerkung, es gibt da noch so einiges mehr auf dem Die als die Cores.

BTT:
Fakt ist doch, dass Intel Probleme mit 10nm hat, das haben sie ja selbst mindestens indirekt zugegeben.
Cannon-Lake ist nicht in der Lage, die Leistung von Kaby-/Coffee-Lake einzustellen oder gar zu überbieten, daher hat Intel die erste Generation von 10nm zusammengestrichen auf die kleinen Vertreter im ULV-Bereich. Die Effizienz konnte damit wohl gesteigert werden.
Die Yields scheinen auch nicht besonders überzeugend zu sein, sonst hätte man Cannon-Lake auch statt Kaby-Lake-Refresh bringen können.

Abwarten wann sie 10nm in Griff bekommen, der dann auch mindestens die gleiche Leistung bringt, als den doch weit ausgereizten 14nm-Prozess. Denn die Taktraten müssen dann ja auch wieder erreicht werden, was nicht mit den aktuellen 10nm funktioniert.

Wenn man den Aussagen von GF trauen kann, steht der 7nm-Prozess zeitlich gut da. Man sei im Plan heißt es bei denen. Ein Einstellen oder Übertrumpfen des Taktes von 12nm ist dann auch nicht ganz so schwer, da dieser noch nicht so sehr ans Limit gebracht wurde. Ein aufholen von AMD ist damit sehr gut möglich.

14nm findet jetzt bei Intel bereits in der 4. Iteration Verwendung. Broadwell war "damals" schon verspätet, weil sie Probleme hatten und dadurch den Desktop-Segment fast komplett gestrichen hatten, weil Skylake dann nur noch kurz danach kam.

YforU schrieb:
Kurz und knapp: Was Patente im GPU Bereich betrifft ist Intel sehr gut aufgestellt. War teuer aber dafür verfügt Intel über die notwendige Basis um in den Markt überhaupt richtig einsteigen zu können. Deren Ambitionen sollte man daher also durchaus ernst nehmen.

Schauen wir mal, was dabei rauskommt. An Ambitionen alleine, kann man noch keinen Erfolg absehen. Hat Intel ja auch mit der Mobile-Sparte nicht hinbekommen.
Wie auch so manch andere große Firma an Vorstößen gescheitert ist, auch wenn Ambitionen vorhanden waren.

PS: Waren die bisherigen Versuche in den Grafik-Segment vorzustoßen eigentlich wenig Ambitioniert?
 
Zuletzt bearbeitet:
Das letzte Wort ist im Kontext von Mobile noch nicht gesprochen. Der Marktzugang (Strategie) war alles andere als optimal, die Integration lief über Jahre nicht wie geplant (3G/LTE) und Qualcomm hat als Monopolist Mitbewerber sukzessive aus dem Markt gedrängt (auch Nvidia). Trotzdem ist Intel immer noch dabei (->Apple) und im Kontext von 5G ist durchaus ein weiterer Anlauf mit SoCs zu erwarten. Ob das dann eigene Designs, x86, ARM oder Semi Custom für Dritte ist wird man sehen.

Mit 5G werden sich die Verhältnisse am Markt verschieben. Weder Apple, Huawei noch Samsung werden nach aktuellen Stand Lösungen von Qualcomm einsetzen. Huawei und Samsung haben eigene Modems in der Entwicklung und Apple dürfte wieder bei Intel zukaufen. In Summe sind das bereits 50% des Marktes und damit ist dann das Monopol von Qualcomm effektiv gebrochen.

Was den letzten Anlauf im dGPU Bereich betrifft war das zwar im Kontext von R&Ds ambitioniert aber das Ziel war in erster Linie HPC und entsprechend waren die Designs ausgerichtet. Der Ansatz (Architektur, Larrabee) war gegenüber AMD/Nvidia ein völlig anderer (und das geht selten gut, siehe AMD - BD, Intel - Netburst). Nochmal wird man den Weg kaum gehen nachdem die Weiterentwicklung (Knights Hill) bereits eingestellt wurde. Also sicher etwas das den heute erfolgreichen Architekturen/Designs ähnelt und das kann Intel auch ohne Probleme machen (Zugriff auf Patente). Die Ausgangsbasis bei Larrabee und damit auch den Nachfolgern war in dem Kontext noch eine ganz andere.
 
Zuletzt bearbeitet:
Smartcom5 schrieb:
@JZedtler Dabei war ich mir so sicher, der Sarkasmus ist nicht zu überlesen!
Tja, so kann man sich irren …


In diesem Sinne

Smartcom

Sorry ich war mir nicht sicher wie es gemeint war, habe zuerst auch an Ironie gedacht. Hättest Du nur den bekannten Zotac zitiert wäre es klarer gewesen, aber das zitieren von CB hat mich dann doch etwas zweifeln lassen.;)
 
Bin gespannt ob die Xeons wieder künstlich auf Server-Chipsätze limitiert werden oder ob da wieder ein "Geheimtipp" im Anmarsch ist.
 
Da wird Intel nicht wieder hin gehen, Geld lassen sie nicht mehr freiwillig liegen.
 
Skamander schrieb:
... Allgemein dürfte es schwer sein GPUs herzustellen ohne irgendein Patent von AMD oder Nvidia zu verletzen (meinetwegen noch S3). Genau so wie es schwer ist eine neue CPU herzustellen ohne in dem Sektor von irgendjemandem ein Patent zu verletzen.

...

[0] https://de.wikipedia.org/wiki/SuperH

PowerVR, Imagination, besitzt sicherlich noch Patente.
Da bin ich mal gespannt, wie Apple das umgeht.

Ansonsten Dual Core und Markt: wer weiß schon, wo kleine Systeme als Vermittler benötigt werden. In älteren Windkraftanlagen lief auch meistens nur ein Mini PC, als Schnitstelle zum Monteur.
 
pipip schrieb:
Welche es aber ab 2000 Serie außerhalb OEM vermutlich nimmer geben wird, weil diese bereits durch bald kommende Ryzen APUs ersetzt werden. Hätte AMD das nicht gemacht, hätte man neben R7 und den R5 mit 6 Cores nichts anders mehr anzubieten gehabt, außer eben ältere Modelle basierend auf Bristol Ridge.

Ebenso eine Marktselektierungund solche Athlon gab es nur im Desktop. Von Bristol Ridge gab es sogar nur mehr ein Athlon Modell.
Da erzählst du nichts neues, das ist vollkomen klar. Nur ist es eben volkommener Unsinn zu schreiben "die Konkurrenz würde so etwas einschmelzen". Nein, die Konkurrenz deaktiviert Dies teils stark, obwohl nichtmal Defekte vorliegen, zumindest nicht in dem Maße, um verschiedene Produkte in diversen Preisbereichen anbieten zu können. Mehrere dies können sie sich aufgrund der niedrigen Verkaufszahlen eben nicht leisten.

Rock Lee schrieb:
Kommt natürlich sehr gut an, wenn man seinen zweiten Absatz dann direkt folgendermaßen beginnt :rolleyes:
Ist ja einfach nur die Wahrheit. Verträgt nur nicht jeder.

Komischerweise gehst du lediglich auf meine Analogie ein, aber nicht auf die eigentliche Thematik meines Beitrags ein.
Was für eine Analogie, du weist schon was das ist? :o
Das ist einfach nur totaler Unsinn, den du von dir gegeben hast.


Was stimmt denn nicht, mit der Annahme dass Intels 10nm eine Katastrophe ist?
Was soll damit nicht stimmen?
Was nicht stimmt ist der Mist den du danach schreibst. Teildefekte Chips bezeichnest du als Müll und schriebst das sowas keiner mehr verkaufen würde. Fakt ist einfach, dass jeder Hersteller komplexer Schaltungen seine Chips selektiert und entsprechende schlechte Dies downgraded um die Ausbeute zu erhöhen.

Durch die erhöhte Packdichte ist der Die mit Sicherheit kleiner als sein Kabylake-Pendant in 14nm+. Trotz kleinerem Die scheint man also eine weitere Ausschuss-Variante zu bringen => Yields sind vermutlich sehr schlecht.
Wo soll hier ein Zusammenhang sein? Ein kleiner Die schützt doch nicht vor defekten. Gerade im Vergleich zu einer weit gereiften Fertigung wie die 14+(+) ist ne schlechtere Yield völlig normal, selbst wenn dern 10 nm Prozess gescheit laufen würde.
Und auch bei dem augereiften Kabylake wird ordentlich teildeaktiviert (Cache, IGP).
Jetzt wird die GPU eben noch weiter kastriert. Wenn dadurch die Yield verbessert wird und es genug Abnehmer für CPU ohne IGP gibt ist das doch eine sinnvolle Maßnahme. Was soll daran jetzt Müll sein? Wenn die IGP eh nicht benötigt wird, hat der Chip die gleiche Funktionalität, wie ein nciht teildeaktivierter.
Ich weiss zwar auch nicht genau wieviele Masken Intel derzeit fährt
Vier: 2+2, 2+3, 4+2 und 6+2. 4+3 soll noch dazu kommen. Das jetzt rein für den Consumerbereich, s1151 und mobile.

Daher ist ein Vergleich mit AMD ("Aber die teildeaktivieren ja auch "defekte" Prozessoren!!") nur bedingt möglich. Man sollte eher Intel-intern die Vorgänger und Nachfolger vergleichen.
Der Vergleich bezieht sich auf den "Müll" den die Konkurrenz angeblich einschmelzen würde, und auf nichts anderes.
Eigentlich macht es ja Spaß solche Pöbelbeiträge auseinanderzunehmen. Aber es hat schon seinen Grund warum du auf meiner Ignore-Liste bist. ;)
Provokante Pöbelei ist eigentlich nur dein Post. Meine Antwort eigentlich nur mal ein Spiegel um dir zu zeigen was für Unsinn du schreibst. Dafür, dass ich auf deiner Ignore-Liste stehe, liest du meine Posts aber recht gerne.
Das Intel mein Feinbild No.1 ist, ist mir neu. Vielleicht ist da mehr so eine selektive Wahrnehmung wenn der Beissreflex bei Intelkritischen Beiträgen greift?
Intelkritisch ist das was diverse Leute hier so diskutieren. Das was du bewusst schreibst sind komplette Unwahrheiten.
Ich habe tatsächlich geschrieben, dass ich glaube (ich habe niemals felsenfest etwas behauptet), dass aufgrund der damaligen Quellenlage, wo noch nicht bekannt war, dass 12nm erscheint sondern lediglich 14nm+ , dass es mit Zen 2 etwas schneller gehen könnte. Da AMD aber selbst den Sprung als so groß betrachtet hat, dass man es 12, statt 14nm nennt, ist da auch mehr Entwicklungsarbeit hinter als vermutet und somit kann man die Ryzen 2000er, die im April für den Desktop erscheinen schon als eigene Generation betrachten und weniger als kleiner Zwischenschritt für was ich diese Serie vorerst gehalten habe.
Jaja ist klar. Die Faktenlage damals ist die gleiche wie heute, nur das GlobalFoundries (nicht AMD) den Prozess in 12 nm
umbenannt hat. Das ist der gleiche Prozess und bleibt nur ne Evolutionsstufe. Das Zen+ 2018 kommt, stand da schon längst fest.
Du kannst es gerne so darlegen, dass du nur eine Vermutung geäußert hast, die Wahrheit kann man aj im entsprechenden Thread nachlesen. Du hast alle Argumente die gegen 2018 sprachen für nichtig erklärt. Kleiner Zwischenschritt oder nicht, AMD wird keinen Die für so ein großes Martksegment für nur ein halbes Jahr auflegen. Und Ryzen 2000 bleibt ein kleiner Zwischenschritt. Was hast du denn erwartet? Noch weniger als ~10 % mehr Takt?
Das ist nicht viel mehr wie von Skylake, auf KabyLake auf Coffeelake. Aber, solche kleinen Zwischenschritte können trotzdem nennenswert für die Konkurrenzfähigkeit sein.
 
Zuletzt bearbeitet:
Zurück
Oben