News Intel verlängert Produktroadmap bis 2012

toffifee schrieb:
Generell ist es immer besser, auf die Tock Generation zu warten, weil erst mit ihr der aktuelle Fertigungsprozess (XXnm) ausgereift und wirklich optimal eingesetzt werden kann. Ich will nicht sagen, dass z.B. der E8400 kein ausgereifter Prozessor ist, er wird sich ähnlich gut wie der E6600 verkaufen. Aber der Leistungszuwachs wird beim entsprechenden Nehalem Modell bestimmt größer sein, als bis jetzt. Außerdem wurde doch eine komplett neue Prozessorarchitektur angekündigt, darauf lohnt es sich auf jeden Fall zu warten (wenn man aktuell einen Conroe o.ä. hat).

Ah ja? :rolleyes: Genau so könnte man sagen, es sei generell besser, auf das Tick zu warten, da erst mit dem Tick die aktuelle Prozessorarchitektur ihre Stärken voll ausspielen und wirklich optimal eingesetzt werden kann, zumal der neue Fertigungsprozess auch eine noch niedrigere TDP / höhere Taktraten verspricht. :p

Warum bin ich eigentlich der einzige, dem auffällt, dass das ganze nichts als eine leere Sprechblase von Intels Marketingabteilung ist? Natürlich kommt nach mehreren Ticks und Tocks wieder ein Tick und ein Tock, und die nächste Fertigungstechnik ist 22 nm. So weit nichts neues. Ich nehme mal an, dass "Future" nicht der Codename für gleich beide Prozessorfamilien sein soll. Also was ist diese "News" hier anderes als ein "Anfang April geben wir vielleicht zwei neue Codenamen heraus", hübsch verpackt?
 
Zuletzt bearbeitet:
15) bluebebe: dann kauf dir ne hd3870/50, da hast deinen h.264 (x.264)decoder schon an board
 
mich wuerde auch interessieren was nach 22nm kommt ... sollte die vorherrschende Ansicht stimmen ist mit der bestehenden Fertigungstechnologie kein weiterer _signifikanter_ Shrink moeglich .Wobei sich die Frage stellt wozu das Ganze noch mehr miniaturisieren ...? In der Vergangenheit hat das Sinn gemacht , die Rechenleistung von frueher 3 Gebaeudeetagen steckt jetzt in Armbanduhrgroesse.Platz und Energiebedarf ist dabei drastisch gesunken.Allein in den letzten 30(?) Jahren gings vom 8086 ( ~5MHz Takt, 5V VCore) zum heutigen Penryn (~4GHz , 1.22V) staendig bergab mit dem Energiebedarf und rauf mit der Leistung.Aber in den letzten Jahren hat das Ganze meiner Ansicht nach mehr und mehr seinen Sinn verloren.

Ein 130 nm Northwood wurde 2002 mit 1,5V (?) betrieben , der heutige Penryn mit 3 mal feineren Strukturen (45nm) braucht immer noch 1,225V .Alle Intel-Prozessoren der vergangenen Jahre hatten trotz mehrerer Shrinks eine aehnliche TDP von "um die 100W" ... vom oekonomischen Standpunkt des Endnutzers aus gesehen macht das also keinen grossen Sinn mehr. Ausserdem sind alle heutigen CPU`s bereits so klein das sie fuer den User nicht mehr zu handhaben sind.Die eigentliche CPU, das "Package" wird deswegen in vergleichsweise Riesengehaeuse eingebaut.Die letzten 5 Shrinks (seit Willamette ,2000,S423,180-200nm(?))sind rein platzmaessig beim User nicht angekommen und werden auch weiterhin nicht ankommen.Das Package muss in ein Gehaeuse eingebaut werden was der User einfach ausgedrueckt "ein-und ausbauen" kann.

Allein der Hersteller zieht seinen Vorteil aus immer mehr Die`s auf immer grosseren Wafern.Sollte sich aber der Herstellungsaufwand bei <22nm Strukturen angenommen vervielfachen bin ich mal gespannt wie gross die Motivation der Hersteller sein wird alles noch weiter zu verkleinern:)

Auf mittelfristige Sicht muss was grundlegend neues her, was meiner (unmaßgeblichen) Meinung nach die Abkehr von der x86 Kompatibilitaet bedeutet.Das gleiche alte Prinzip wird durch immer groessere und schnellere Caches "frisiert",schon jez wird die halbe Flaeche einer CPU vom Cache belegt.Eine richtig gute Sprungvorhersage wuerde viel mehr bringen , ist natuerlich nicht so leicht zu realisieren wie eine Verdoppelung des Caches.

Lange Rede ,kurzer Sinn: Natuerlich werden die naechsten Shrinks weitere Verbesserungen bringen , MultiCore CPU`s die im MilliVolt betrieben werden oder sowas.Wichtiger aber sollte sein _was_ auf dem "Die" vor sich geht,nicht die Groesse.
 
Zuletzt bearbeitet:
ICEKALT schrieb:
Es ist schon ziemlich übel was die alles raushauen und die Shrink Zeiten sind auch deutlich kürzer geworden.
Intel hat aber nur aus der Protypenfertigung D1D schon 2007 die 45nm DIES erzeugen können.

Bzgl. 32nm kann man einerseits optimistisch sein, da die 193i Immersionslithographie deutlich besser zeichnet als die 193nm, mit der es IBM aber bis 45nm packte, während der Rest der Halbleiterwelt für 45nm schon 193i einsetzen wird.

Aber Intel hat off. noch keine Angaben gemacht, welche Fab dann auf 193i umgerüstet wird, was aber lange Zeit als Vorlauf benötigen wird.
Damit ist vor 2010 nicht eine Massenfertigung jenseits der Fab D1D zu erwarten, was obige Roadmap kräftig relativiert.
Aber die Intel 32nm so 2010 kann man als praktisch sicher ansetzen und schon einplanen.

Die 22nm / EUV ist noch große Baustelle und die Kosten könnte enorm sein.
Auch sind 22nm dann min. Okta-Core und GPU gleichzeitig zu erwarten - schon ab der Celeron-Klasse.
16 oder 24 Cores wären dann ALDI & Co. Liga und die HighEnd PCs kämen auf 48-64 Cores CPUs. Da fühlt sich SuperPI bestimmt unterfordert ...
 
Cyman schrieb:
Man kann sich kaum ausmalen, wie viel schneller die Rechner des Jahres 2011 mi 22nm-CPUs im Vergleich zu heute sein werden. Mehr Cores (wer weiss, wieviele Kerne in drei Jahren Standard sein werden, Stichwort Multicore) bei gleichzeitig sinkender TDP.
Naja, "Standard" wohl höchstens 8 Kerne. Heute sind bspw. ja auch Dualcores Standard, obwohl es Quadcore-CPUs seit gut 1,5 Jahren gibt. Genau das ist ja das Problem des Marktes, die zu geringe Verbreitung von HighEnd-Hardware, was die Ausnutzung solcher Komponenten seitens der Entwickler ausbremst. Quadcores sind selbst heute noch nur was für 3DMark-Benchhuren, einen wirklichen Nutzen bringt das in praktisch keinem Spiel, ausgenommen vielleicht Crysis. Was auch seine nachvollziehbaren Gründe hat. Warum sollten sich die Progger den Kopf zerbrechen und eine effiziente Ausreizung von Quadcore-CPUs anstreben, wenn nur wenige Prozent des Gamer-Marktes über solche Hardware verfügt... (bzw. sie selbst würden ja vielleicht gerne, aber die Publisher lassen sie nicht, da diese zusätzliche Entwicklungszeit mit hohen Kosten verbunden wäre und in keiner Relation zum Nutzen stünde)

Das wird sich auch in Zukunft nicht ändern und diese Kluft nur noch extremer ausfallen. In relativ naher Zukunft ist der Standard bei 8 Cores, während ein kleiner Kreis an HighEnd-Technikfetischs über 16, ja vielleicht gar 32 Cores verfügt, welche wieder kaum angesprochen werden. Man muss sich mal vorstellen, was da für eine Leistung "brach" liegt.
 
Zuletzt bearbeitet:
Auch diese Leistung werden wir brauchen, es werden mit der Zeit schon passende Anwendungen kommen, wenn das nicht so wäre würde folgendes Zitat immer noch gelten.

"Man wird nie mehr als 640 kB an Speicher brauchen"

Da hat Bill Gates aber die Rechnung ohne Herrn Moore Gemacht.

P.S: so geht das immer weiter, und weil man die Taktrate beim Prozessor nicht mehr ohne weiters steigern kann, werden halt die Kerne verdoppelt, oder warum haben wir immer noch CPUs mit 2-3 GHz, wie vor 5 Jahren, also trifft das Mooresche Gesetz jetzt auf die Kerne zu.
 
Huhamamba schrieb:
Warum sollten sich die Progger den Kopf zerbrechen und eine effiziente Ausreizung von Quadcore-CPUs anstreben, wenn nur wenige Prozent des Gamer-Marktes über solche Hardware verfügt...


du weißt ja hoffentlich das die gamer wohl nur der geringste teil sind , welche dual, quad-cpu nutzen. außerdem software gibts für dual, quad, und folgende genug.
würd den teil der gamer mal auf unter 5% schätzen

denk mal daran:
-architekten
-medizin
-finanzwesen
-konstruktion
-filmstudios
um nur ne kleine auswahl zu nennen
 
Zuletzt bearbeitet:
Wenn man die Radmap generell um ein halbes Jahr nach hinten verschiebt, sowie alle 2 Jahre ein halbes Jahr hinzu rechnet, könnte das vielleicht sogar hinkommen. 2007, Penryn, abgehakt? Das soll wohl ein Scherz sein? Da ändern auch die paar wenigen QX9650 im verbuggten C0 Stepping nichts dran.
Verstehe auch nicht, warum man sich immer wieder an diesem Tick-Tock Modell hochzieht. Dass Intel diesen Jahreszyklus nicht einhalten kann, sieht man ja jetzt schon. Und andere Entwickler bzw. Hersteller gehen ja ähnliche Wege. Bei AMD zB nennt sich das Modell "Pipe".
 
joa es wird auch weit bis ins jahr 2009 reichen bis sich nahalem auf breiter front zu gesicht meldet
 
Zurück
Oben