News Roadmap & Termin für Intels 45-nm-CPU

also 130 ist echt hardcore fuer 45nm dafuer das es ja weniger waerme produzieren soll und weniger energie fressen. Schon klar das es schon immer so war, jedoch sollten die dochmal versuchen das zu mindern oder nicht? war das nicht mit einer der ziele von dem Die schrink

Sonst klingt es ja von leistungs aspekt her sehr interessant.
 
Zuletzt bearbeitet:
Ich finde die E8xxx Reihe interessant. Solange Intel das OC-Potential auch in 45nm aufrecht erhalten kann, werden viele damit zufrieden werden. Wenn nicht, abwarten was passiert
 
Was mich viel eher "nicht juckt" ist, diese Dinger zu kaufen. Weder für 1000$ noch mit einer TDP von 130 Watt. Meinen E6400 habe ich seit fast einem Jahr. Klar ist übertakten nicht selbstverständlich, aber wenn ich mir diesen auf 3,0 Ghz takten, dann ist er noch immer genauso schnell in dem allermeisten Anwendungen. Ein QX mega ultra Quadcore wird sowieso in den seltensten Fällen benötigt.

Ich halte es momentan für genauso notwendig wie seinerzeit AGP 8.0, Hyperthreading, 64 Bit für den Athlon etc. Für uns Enthusiasten prinzipiell kein Kaufgrund. Es sei denn, die alte Cpu raucht mal ab. :o
 
@Rettich
Supi vergleich... Das sind doch völlig verschiedene Fertigungstechniken! Die AMD A64 sind zwar auch im 65nm, aber die Intel in 45nm. Schon alleine deswegen kann man es nicht vergleichen.

@BrOokLyN R!ot ³
Dir ist schon bewusst, dass die neuen QuadCores satte 12MB Cache aufweisen? Das das nicht Stromsparend wird sollte wohl bewusst sein. Mit neueren Steppings wird aber auch bei den 45nm CPUs der Stromverbrauch gesenkt werden. Intel muss ja auch erstmal Erfahrungen damit sammeln.
 
@zwirbelkatz
klar "juckt" es niemanden solch einen Prozessor zu kaufen, aber wer sich dafür interessiert, sollte doch seine Meinung kund tun.
Sicherlich werde auch ich nicht auf den Zug mit aufspringen und gleich den erst besten 45nm-Prozessor abgreifen. Immerhin hat sich ja bei den Core2Duo auch etwas getan (Stepping G0).
Sehr interessant werden nachher einige neutrale Testergebnisse, um die sich sicherlich jeder reißen wird.
 
naoki schrieb:
Ein weiterer Nachteil, den Intel mit den getrennten Dies hat. Dadurch können auch keine Split-Powerlanes zum Einsatz kommen, wodurch einzelne Kerne vollständig abgeschaltet werden können. Das hätte den Energiehunger sicher auch etwas geringer ausfallen lassen!
So ein Unfug:

  1. Die geteilte Stromversorgung erlaubt es AMD beim Barcelona-basierten Opteron, die Northbridge inkl. Speichercontroller und L3-Cache, dank höherer Spannung, höher zu takten,
  2. einzelne Kerne abschalten kann Intel, wie AMD, schon seit Jahren und
  3. der TDP hilft beides überhaupt nicht.
naoki schrieb:
Ich denke aber, es wird auch hier wieder bessere Steppings geben, wodurch sich der Verbrauch wieder den 120W annähert.
Welche 120W? Intels Quad-Core Extreme Editions hatten schon immer 130W TDP.
naoki schrieb:
Ich bin mal auf die Leistung gespannt, die die 45nm Prozzis haben und freue mich auf erste reale Benchis!
Intel hat schon vor einem halben Jahr echte Benchmarks für Wolfdale und Yorkfield veröffentlicht. Mittlerweile haben es einige Samples sogar zu den überlichen Verdächtigen geschafft.
 
@ cyrezz

warum ist das denn nicht vergleichbar. es geht hier um performance und nicht um das grüne gewissen. es ist doch sowas von scheinheilig sich bei einem QUAD über 130 watt aufzuregen. wenn man weniger will soll man sich nen arm prozessor oder ähnliches einbauen. das sind 4 kerne mit je 3GHz und 12mb.
ich kann da rettich nur zustimmen. man kann bei einer extremedition nicht die energiemaßstäbe von midrange produkten anlegen. das wäre so als vergleicht mand en schadstoffausstoß von rennwagen mit normalen autos.
 
Also manche Leute kann man wirklich nicht verstehen!
Beschwert ihr euch auch, warum der 500PS Ferrari mehr als 5 Liter verbraucht?

Und wer die Core-Architektur mit der Netburst nur wegen dem Stromverbrauch vergleicht, zeugt nicht von wirklich viel Ahnung. Alleine der Vergleich der gebotenen Leistung sollte dies verdeutlichen!
Natürlich sind 130 Watt so pauschal ein hoher Wert. In Anbetracht der Leistung relativiert sich dies aber auch wieder. Und ein kleineres Herstellungsverfahren muss nicht immer eine extreme Verkleinerung der Verlustleistung zur Folge haben!
 
@20

Vielleicht solltest Du mal darüber nachdenken,daß der AMD Athlon 64 X2 6400+ Sockel-AM2 boxed in 90nm SOI gefertigt wird,und die neuen Intels in 45nm SOI
Desweiteren ist der Intel ja eine viel neuere Entwicklung als der 6400er von AMD,der ja nur eine Erweiterung der Dual Core Reihe ist

Ich denke die Hersteller sollte sich nicht so sehr Gedanken über die Leistungssteigerung machen,sondern erst einmal auf der jetzigen Basis weitermachen,denn
in der letzten Zeit hat sich ja eine Menge getan Pro Watt Leistung bei CPUs

Wenn ich bedenke,daß ein Dual Core mit 2 GHz,egal welcher Hersteller,unter 45 Watt bei Vollast und weniger als 10 zum Teil im Idle verbraucht,dann ist das doch etwas,worauf man aufbauen kann
 
@Quickmick07
Da hast du mich missverstanden. Du kannst ja in Post #12 lesen wie ich das gemeint habe bzw. wie ich dazu stehe. So wie Gerhard12 das geschrieben hat meine ich das. Es bezog sich schlicht und ergreifend auf der Vergleich von Rettich in Post #20, und das kann man nicht miteinander vergleichen.
 
Also 130 Watt TDP sind doch in ordnung für einen Extreme. Wer den kauft hat auch Geld für ne Wakü. Die 95 Watt der "normalen" sind doch auch im Vergleich mit AMD noch O.K. Weniger ist bei nicht nativen Quad Cores halt nicht drin. Mit dem Nehalem gibts dann auch wieder Quads mit 65 Watt TDP.
 
Daran sollten sich eher die Grafikkartenhersteller mal ein Beispiel nehmen... :D

4x 3GHz CPUs, die "nur" 130W verbrauchen und auf der anderen Seite Grafikkarten mit einem Chip, die Strom verbraten wie sonstwas! :rolleyes:

Oder vergleiche ich jetzt 500PS Ferraris mit 500PS LKWs? :D
 
Schau dir einfach mal die Komplexität einer GPU an, die hat ein paar Millionen Transistoren mehr als eine CPU.

8800 GTX hat ca. 681 Mio. und ein QX6800 2x291 Mio. (also 582 Mio), das sind mal eben 100 Mio. Transistoren mehr, die wollen alle mit Strom versorgt werden. Nur stimme ich dir zu, dass die GPUs mal weniger Strom verbrauchen sollten, wobei der G80 in Leistung pro Watt besser ist als die Vorgängergeneration.
 
Jau, aber technisch hinken die ja eh noch etwas hinterher, bei CPUs sind 45/65nm schon eher normal und die GPUs eiern noch mit 90nm rum, bzw. werden bald auch mal auf 65nm gesenkt! Hoffe dass sich das dann wieder etwas relativiert, das ist ja nichtmehr normal was die grad ziehen...
 
macmaxx schrieb:
Weniger ist bei nicht nativen Quad Cores halt nicht drin. Mit dem Nehalem gibts dann auch wieder Quads mit 65 Watt TDP.
Ja, ja. Deswegen gibt's von Intel ja auch schon seit längerem Quad-Core Prozessoren mit TDPs von 130W, 120W, 105W, 95W, 80W und 50W.

Guten Morgen. :p
 
hehe... ich erinnere mich noch daran, dass Intel seine 45nm CPUs mit bis zu 4 GHz betreiben wollte. Und wo sind wir nun angelangt: 3 ghz bei 130 Watt TDP.

mir scheint es fast, als ob der 45nm Fertigungsprozess kaum Einsparungen in der Verlustleistung ermöglicht, dabei wurde der Tri Gate Transistor doch so sehr gelobt.
 
Hello,

also ich musste echt lachen als ich das hier gelesen hab!

Schonmal darüber nachgedacht das jetzt schon die meisten QX6xxx prozis 130W TDP haben :-D

Deswegen wenn man keine Ahnung hat....

... ist ja sonst ganz nett und Informativ hier aber hier beschmeißt ihr euch nicht mit der Weisheit^^

mfg
Michbeck
 
genau und so ganz nebenbei stecken da 2x2 Prozis drin, was für einen "Duo" +/- 65W ergäbe...

Mit den Optimierungen geht's dann auf 95W runter (immerhin 35W).
 
Ich kann mir ganz ehrlich nicht vorstellen, dass der 45nm die-shrink die gleiche Verlustleistung hat wie der große 65nm-Bruder. Klar, es ist ein wenig mehr cache drauf...
 
Zurück
Oben