News Intel verlängert Produktroadmap bis 2012

Naja, also CPU Entwicklung interessiert mich mittlerweile weniger. Wenn man jetzt Spiele rausbringen würde, die alle cores bei nem Quadcore effizient auslasten würden, dann würden die heutigen Quadcores bis mind. 2012 ausreichen.

Da jetzt schon die meisten Spiele von der Grafikkarte limitiert werden, sollten die GPU Hersteller mal lieber schneller machen und nicht so nen Bullshit wie die 9800er Serie rausbringen, die nur nen paar Prozent schneller ist. Lächerlich.
 
nett, 2008 wollte ich sowieso nicht aufrüsten (wofür auch?), da warte ich dann doch mal auf westmere, so er denn "pünktlich" kommt. bisher hat ja (fast) alles hingehauen :)
 
Selbst ne 88gtx kann spieletechnisch noch keinen Q66 auslasten, deswegen würd ich mich momentan mehr über Entwicklung in Richtung GPU freuen. :)
 
sieht doch gut aus, was intel so plant, wenn die Performance und der preis stimmt sind sie auf einem guten weg, freue mich jetzt erstmal auf die neuen Quad-Core CPU´s von Intel^^
 
@32

das tock kommt vielleicht daher, dass das ticken nicht erst mit dem core 2 angefangen hat, sondern eine zeitspanne schon vorrausgegangen ist :D
naja jedenfalls wird es imho darauf hinauslaufen, dass bei dieser roadmap noch einige ticks und tocks dazukommen - aber optimistisch sind se allemal^^
 
bin mal gespannt wie die cpus werden (wie ja von intel geplant)
wenn die den chipsatz mit auf die cpu bringen
 
Das Silicium nur 2 nm zulassen würde stimmt nicht, Silicium lässt (theoretisch) 0,2 nm (oder so, halt den Atomdurchmesser) als Fertigungstechnik zu.
Das einzige Problem ist, dass die Fertigungsgröße den Leiterbahnenabstand angibt, während das Limitierene bei 65 nm nur noch 20 Atomdurchmesser dick ist. Dort kommen dann quantenmechanische Effekte zum Tragen, was zu einem Leckstrom führt, was bei einem mordernen Prozessor die Hälfte des Stroms verbraucht.
@ topic:
Ich glaube kaum, dass Intel dieses Roadmap einhalten kann, terminlich gesehen
 
Man kann sich kaum ausmalen, wie viel schneller die Rechner des Jahres 2011 mi 22nm-CPUs im Vergleich zu heute sein werden. Mehr Cores (wer weiss, wieviele Kerne in drei Jahren Standard sein werden, Stichwort Multicore) bei gleichzeitig sinkender TDP. Abschaltbare Kerne, Taktung nach Leistungsbedarf, weniger Abwärme, mehr Batterielaufzeit in Laptops... da sollten die Hersteller der anderen Komponenten sehen, dass sie da schritt halten, damit auch der Rest mit dem Prozessor mithalten kann. Dies gilt insbesondere für die GPUs. Es wird Zeit, dass diese auch kleiner werden und auf Multicores setzen - während CPUs immer weniger Strom benötigen, steigt der Strombedarf von Grafikkarten in unverträgliche Höhen (welche Komponente im Rechner verbraucht heut zu Tage mehr als eine moderne Highend-Grafikkarte?). Hoffentlich wird es bald dort auch eine Revolution geben - AMD und nVidia scheinen ja zumindest daran zu arbeiten - ich könnte mir vorstellen, dass insbesondere AMD/ATi am Ende eine hervorragende Lösung werden vorstellen können - vorausgesetzt, das Know-How beider Sparten fließt in optimaler Weise zusammen!
 
Lossless schrieb:
Die Software Hersteller sollten mal langsam reagieren... was bringen 8 Kerne wenn es keine Software gibt, die sie auch unterstützt...?

Klar gibt es Software im Server-, Workstation-, Grafik- und CAD-Bereich die 8 Kerne,
Mehr-Kern-Systeme usw. unterstützen! Du solltest da nicht immer die PC-Spieler im Auge
haben. Aber auch im Spielebereich gibt es schon Spiele die Quadcore unterstützen und
so wird sich die Entwicklung auch fortsetzen!
 
bluebebe schrieb:
jedes jahr ne neue cpu, nein danke intel. nächstes jahr rüste ich nochmal richtig mit nehalem 8kern und ddr3 auf, dann sollte das reichen für meine hdtv x264 encodings.

so ist es ... jedoch finde ich es doch klasse wie schnell die technick läuft ... aber für home ist es jedoch zu rasand ... kaum ein komp. system gekauft ist er schon fast nach einem jahr schon veraltet :(
 
Das mit dem tick-tock isn fehler, denn penryn ist ja der "zweite conroe", und westmere is der zweite nehalem...
also falschrum!
core2 müsste tick heißen, so wie es im artikel steht.
mhm...aber super isses ja schon.
 
Bedeutet eine geringere Fertigung (von 45nm auf 22nm z.B.) auch immer gleichzeitig eine geringere Leistungsaufnahme (bei weniger Temp. dann logischerweise...)?
 
Das heißt ab 2013 gibts keine Sillizium Chips mehr weils nicht mehr kleiner geht... jedenfalls wenn Intel ihre Roadmap halten kann.

Und mit Tick Tock ist dann auch Schluß? Oder hat Intel da mit ihren Hafnium Transistoren schon eine Alternative?
 
@ 40) Funkaphil:
der erste DualCore war der Pentium D (auch wenn der nicht so genial war wie der C2D)
ist das IMO der eigenltiche Tick, da DualCore einiges mehr Leistung gebracht hat

mfg
aelo

edit:
kappier ich grade was nicht, oder wurden die letzten 6-7 Beiträge gerade gelöscht?
 
Funkaphil schrieb:
Das mit dem tick-tock isn fehler, denn penryn ist ja der "zweite conroe", und westmere is der zweite nehalem...
also falschrum!
core2 müsste tick heißen, so wie es im artikel steht.
mhm...aber super isses ja schon.
Das stimmt nicht. Der Pentium D/Core Duo war Tick, also die erste 65nm Generation. Die zweite 65nm Generation war der aktuell meistverkaufte Core 2 Duo und die Penryns, Wolfdales und Hapertowns sind die ersten 45er.

Generell ist es immer besser, auf die Tock Generation zu warten, weil erst mit ihr der aktuelle Fertigungsprozess (XXnm) ausgereift und wirklich optimal eingesetzt werden kann. Ich will nicht sagen, dass z.B. der E8400 kein ausgereifter Prozessor ist, er wird sich ähnlich gut wie der E6600 verkaufen. Aber der Leistungszuwachs wird beim entsprechenden Nehalem Modell bestimmt größer sein, als bis jetzt. Außerdem wurde doch eine komplett neue Prozessorarchitektur angekündigt, darauf lohnt es sich auf jeden Fall zu warten (wenn man aktuell einen Conroe o.ä. hat).
 
Es ist schon erstaunlich wie schnell sich die Computertechnik in den letzten Jahren entwickelt hat.
Ich bin mal gespannt wie klein die Prozessoren noch geshrinkt werden können bevor man einen neun Aufbau entwickeln muss
 
Interessant, vor allem auch das Argument, das zu dieser Entwicklung viele kritisch bringen. Wer ernsthaft glaubt, dass die heutige Hardware nur bei besserer Multi-core-Auslastung länger als ein Jahr alle Programme ohne Probleme bedienen könnte, der irrt.
Gerade Spiele werden (siehe Crysis) immer etwas over-the-tops entwickelt, und sind nur mit teuerster Hardware vollständig auszukosten.
Die Entwicklung zu schnelleren Architekturen ist hier insofern von Relevanz, als ein geschrumpfter Herstellungsprozess auch gesenkte Produktionskosten mit sich bringt. Klar wäre es schön, hätten wir bessere Multi-core-Unterstützung, so liefen die Programme von heute viel besser, die von morgen würden aber wohl wieder mehr verlangen...
 
Zurück
Oben