News Intel: Erste Details zu 6-Kern-Westmere-CPU

Ich weiß, leider ist es wirklich schon zu lange her. Also spätestens mit Bulldozer sollte es langsam reinkommen, oder die haben den Lizenzvertrag platzen lassen.

Mich würde es allerdings wundern, denn gerade wegen SOI hat AMD ja dieses Ass im Ärmel. Wogegen Intel nichts zu bieten hat.
 
Das stimmt schon aber Cache alleine macht noch keinen Prozessor aus.
Es ist gut möglich, das sich die Prozessorarchitekturen in den nächsten Jahren grundlegend verändern werden. Ein Einblick hat uns ja Intel erst vor kurzer Zeit gezeigt. Ich meine diesen Chip, wo gesagt wurde, das er mehrere Computer beinhaltet.

Der eigentliche Grund, warum Caches immer größer werden müssen, ist z.b. die steigende Rechenleistung der einzelnen Kerne der die stagnierende Speicherperformance gegenübersteht.
Ein anderes gutes Beispiel ist der QPI Bus von Intel, der jetzt schon mit dem maximalen Takt läuft und dadurch in seiner jetzigen Konfiguration in naher Zukunft einen weiteren Flaschenhals darstellen könnte, den man auch wieder nur mit viel Cache ausgleichen kann.

Mehr Cache wirkt so ein bißchen wie eine Innovationsbremse, ohne gehts natürlich auch nicht aber schau dir mal das Die an und überleg mal, was man dort alles machen könnte, wenn man die Hälfte des Level 3 Caches weglassen würde.
 
meeee schrieb:
@DvP: GT/s gibt es mindestens seit der Einführung des Athlon64

"Kt/V ist ein Parameter um die Dialyseeffektivität zu bestimmen" und gibts auch schon länger, kennt aber keiner. Was ist das für ein Argument?
 
für den Athlon64 ist diese Abkürzung halt schon länger existent :D
Dir war sie anscheinend noch nicht bekannt, aber in der Hochfrequenztechnik ist es eine übliche Einheit!
Der Unterschied liegt darin, das bei QPI z.B. die Daten seriell übertragen werden und sich die übertragende Datenmenge von der effektiven Datenmenge unterscheiden kann.
Das kann dadurch zustande kommen, das z.b. noch Fehlercode mitgesendet wird, der beim Empfänger wegfällt, wenn er die übertragenden Daten geprüft hat.

Die übertragenden Daten nennt man deshalb oft einfach GT/s Giga Transfer pro Sekunde und die Nutzdaten werden in GBit/s gemessen/angegeben.

OT:
Bei der Dialyseeffektivität hingegen ist es noch unwarscheinlicher, das davon hier im Forum jemand die Einheit für kennt.
Es ist hier schließlich eine Computer Seite und für den Fall, das etwas unklar ist, gibt es das Forum wo man nachfragen kann.
Aufregen bringts wirklich nicht, hab ich auch schon oft genug versucht :D
 
quotenkiller schrieb:
beide müssen zusehen dass sie die grösse des l3 caches minimieren.

Wieso? Richtige Serverprozessoren besitzten noch größere Caches und haben damit keine Probleme. Notfalls setzt man eben auf eDRAM wie z.B. beim POWER7 oder auf einen externen Cache und ein Multichipmodul.

meeee schrieb:
Was mir gerade eingefallen ist, das ist nämlich der Itanium 2.
Intel verkauft den wohl schon an mehrere Server-Hersteller.
Tatsächlich? Der Itanium2 ist schon längst draußen und auch schon weitgehend ausgestorben. :rolleyes:

Ob Tukwila (also die geplante neue Itanium Generation) ein Erfolg wird, wage ich zu bezweifeln, denn mit dem Nehalem EX gibt es eine x86 Alternative und IBMs POWER7 wird ihn im Highend Segment wahrscheinlich wegfegen (8 cores mit 4fach SMT vs. 4 cores mit 2fach SMT beim Tukwila).

Crystal schrieb:
Wogegen Intel nichts zu bieten hat.
Außer eigenen Fabs, einem Vorsprung bei der Fertigungstechnik und wesentlich höheren Gewinnen hat Intel "nichts" zu bieten. Klar. :rolleyes:

meeee schrieb:
Es ist gut möglich, das sich die Prozessorarchitekturen in den nächsten Jahren grundlegend verändern werden.
Bis Quanten- oder biologische Computer den Markt erobern werden, vergeht noch ein Weilchen. ;)
Ansonsten hat es Cell vorgemacht: Eine Standard CPU wird um spezialisierte Ausführungseinheiten erweitert, die parallelgeschaltet die Hauptrechenlast übernehmen sollen.
Bei AMD heißt das Bulldozer, bei NVidia Tegra und Intel setzt auf x86 Kerne, deren SSE Einheiten noch weiter aufgebohrt werden.

meeee schrieb:
Ein anderes gutes Beispiel ist der QPI Bus von Intel, der jetzt schon mit dem maximalen Takt läuft
Ach und den Takt kann man nicht anheben? Oder arbeitet AMD auch noch immer mit HT1.0?
Und nein, weder HT2.0/3.0 oder ein zukünftiges QPI2.0 brauchen noch mehr Cache.
 
Um den Preis mache ich mir keine Sorgen. Denke die Desktop Version wird bei ca. 500 Euronen liegen.

Passt eigentlich ganz gut, denn ich will mir bis zum Ende des Jahres einen komplett neuen Rechner zusammesnstellen der die Leistung satt hatt ;-)
 
@CHAOSMAYHEMSOAP:
Zum ersten Zitat von mir: Du weißt aber schon, das der Itanium eine VLIW Architektur ist und dadurch Befehle parallell ausführen kann und noch ein paar andere nette Dinge parat hat?

Zum 2ten Zitat: Hättest du weiter gelesen, dann wüßtest du, das ich nicht von Prozessoren gesprochen habe, dessen Funtionsweise physikalisch komplett anders ist, sondern bspw. von einer NoC Architektur.

Zum 3ten Zitat: Wenn ich von QPI rede, wieso switched du dann zum HT?
Das der HT noch nicht am Ende der Fahnenstange ist, ist mir klar, aber QPI mit seinen 6,4GBit ist es schon.
Mehr als 6GBit über Kupfer ist bei standard PCBs hochfrequenztechnisch eine katastrophe.
Kein Wunder also, das Intel Know How in der optischen Datenübertragung sammelt, möglicherweise wird der QPI-Bus, wie er jetzt noch existiert, direkt von einer optischen Schnittstelle abgelöst.
QPI ist sowieso ein Schuß ins eigene Bein, die Übertragung des Fehlercodes auf separaten Leitungen deutet darauf hin, das keine 8/10Bit Codierung stattfindet und es dadruch wesentlich langsamer werden kann, wenn Fehler auftreten.

Ich glaube CHAOSMAYHEMSOAP, du hast eine selektive Wahrnehmung und scheinst nicht wirklich zu wissen, warum die Caches eigentlich immer größer werden!
Wenn sich der Speicherdurchsatz und die Interface-Performance dem Durchsatz der CPU anpassen würden, dann könnte man auch mit sehr viel weniger Cache auskommen.
Große Caches sind also dazu da, um Unterschiede in den Verarbeitungsgeschwindgkeiten auszugleichen.
 
Zuletzt bearbeitet:
Itanium hier mit irgendwas zu vergleichen ist schlimmer als Äpfel mit Birnen. Denn in Itaniums Markt spielt auch der Acht-Kern-Xeon keine Rolle, da man ganz andere Anforderungen hat. Die einzige Gemeinsamkeit ist wohl, das die beide in die Kategorie Prozessor fallen^^
 
Artikel-Update: Die Kollegen von Anandtech durften anscheinend noch ein wenig mehr verraten. Demnach beträgt die Chipgröße des Sechs-Kern-Prozessors lediglich 240 mm² und ist damit deutlich kleiner als der Die eines Lynnfield-Quad-Core-CPUs, der es auf 296 mm² bringt. Auch die „Bloomfield“ werden mit einer Die-Größe 263 mm² noch unterboten. Rein rechnerisch entspricht der Neuling damit fast genau dem dreifachen der Clarkdale-Zwei-Kern-Prozessoren, die eine Die-Größe von 81 mm² besitzen. Der Punkt mit der dreifachen Größe ist auch bei den Transistoren zu sehen, denn ein Clarkdale bringt es auf 384 Millionen, der Gulftown bekanntlich auf 1,17 Milliarden.
 
Schöne CPU, mich interessiert vor allem der Stromverbrauch unter Last.
 
6 kerne bei 240mm²... 32nm scheinen es echt drauf zu haben. :)
Mal sehen wie das mit Taktung und nötiger Spannung aussieht.
 
And.! schrieb:
@quotenkiller
Die Cpus sind für Server gedacht, also spielt der Preis da keine so große Rolle wie im Consumer Markt. Dazu kommt, dass Cache gerade Server/Workstation Anwendungen eine deutliche Mehrleistung bringt.

Die Fertigungen werden kleiner und die Chips auch. Statt die Chips günstiger zu produzieren (Atom) wird mehr L2/3 Speicher (Speicherkontroller und Northbridge) in einem Die vereint, wodurch der Chip zwar nicht kleiner wird, dafür aber mehr Leistung hat oder andere Vorteile.
und du glaubst, dass wir im desktop betrieb nie mehr als 4kerne vorgesetzt bekommen?
dass die fertigungstechniken immer kleinere strukturweiten ermöglichen, ist natürlich eine hilfe. aber solange der aktuelle trend anhält, haben wir irgendwann mal eine cpu mit x kernen, die x*2 mb l3 cache beinhaltet. das wird langfristig weder der weg sein, der uns günstige cpus verschaffen wird, noch dafür sorgen wird, dass die cpu so energieeffizient wie möglich sein wird. *es erhöht die nötige grundlast der cpu*
ein auslagern des l3 cache, wie CHAOSMAYHEMSOAP vorschlägt, ist natürlich eine hilfe, um die cpu ansich erst mal zu entlasten. aber ob das insgesammt betrachtet der besste weg ist, bezweifel ich doch etwas.

imho kann die lösung nur sein, auf effiziente cpus zu setzen, die spürbar weniger l3 cache benötigen.
 
quotenkiller schrieb:
beide müssen zusehen dass sie die grösse des l3 caches minimieren. (eigentlich muss auch beim l2 cache "nachgebessert" werden)
wenn das so weiter geht / nicht gebessert wird, platzen die cpus wieder aus allen nähten -> kosten, grösse, verbrauch, thermische verlustleistung.
Woran machst du das fest?
Die Diefläche ist nicht größer als beim Kentsfield.
Und der cache hat nicht gerade sehr viel mit der Verlustleistung zu tun. Der SRAM ist nicht gerade der Teil, der die TDP in die Höhe treibt.
 
Außer eigenen Fabs, einem Vorsprung bei der Fertigungstechnik und wesentlich höheren Gewinnen hat Intel "nichts" zu bieten. Klar.

Es ging hier um den Cache :rolleyes: und AMD plante immerhin Z-Ram einzuführen, wodagegen hier Intel nix bieten kann, da kein SOI.

Abgesehen davon, ist es wohl bekannt woher Intel seinen Vorsprung und Gelder herhat bzw. aus welcher abstoßenden Art und Weise den Markt "vergewaltigt". Und dich als Kunden ebengleich mit. Mir ist sehr wohl bekannt was Intel drauf hat und was sie anbieten etc. nur im Vergleich zu so einem Laden wie AMD und so einen wie Intel kann man durchaus sagen dass AMD innovativer ist. AMD hat als erstes meines Wissens die Richtung mit Mehrkern-Prozessorern eingeschlagen, wenn die es nicht hätten, hätten wir heute immer noch Pentium prozessoren mit 10Ghz schwachsinn...
 
Hatte man bislang seine Bedenken, die Einführung von 32nm 'Bloomfield-Nachfolger' noch für die erste Hälfte des Jahres 'zu glauben', da der technische Vorteil der 32nm Prozessoren, verglichen im Rahmen der XEON-Bloomfield Klasse, keinen sonderlichen Mehrwert darstellt, so scheint es mir ob der wirtschaftlichen Vorteile (Chipgröße!) nun als sicher, daß wir noch in der ersten Hälfte des Jahres 32nm-Nachfolger der 4-Kern LGA1366 Prozessoren sehen werden. Selbstverständlich hoff ich das auch, insbesondere für die LGA1366-Single-Socket-XEON Systeme. Wenn nebst kleinerem 'Die' G8lftown bei 6 Kernen un knappen 3 GHz (oder gar darüber) die 130 Watt TDP halten kann, wird ein 4 Kern-Wetsmere Äquivalent sicherlich bei 95 Watt - oder vielleicht 100 Watt - zu liegen kommen. Das wären für AMD gefährliche 'Idealwerte' ....
 
Hört sich doch alles ganz super an: mehr power bei kleinerem CHip und damit auch besserer Kühlmöglichkeit! Kein Wunder, dass die Dinger schon mit über 3 GHz Standardtakt kommen sollen. Dann dauert es ja auch nicht mehr lange bis es 12 x 4 GHz von INTEl gibt. :evillol:
Die Teile werden dann aber keinen IGP haben, oder? WEil gerade habe ich auch noch gelesen, dass die IGP mit Sandy nicht nur auf 32nm verkleinert werden soll sondern auch doppelt so schnell sein soll wie die heutige! Vielleicht gibt es ja später auch noch 6'er mit solch einer IGP, wäre nämlich super für viele Server und Anwendungen, wo eh kaum ein Monitor an ist bzw. dranhängt.
 
meeee schrieb:
... Itanium eine VLIW Architektur ist und dadurch Befehle parallell ausführen kann und noch ein paar andere nette Dinge parat hat?
Trotzdem sind fast alle Serverhersteller (bis auf HP) von der sinkenden "Itanic" abgesprungen und steigen auf den Xeon Zug auf oder setzen auf POWER oder SPARC (wobei man nach dem Sun Verkauf nicht weiß, wie es da weitergeht).

Volker schrieb:
Denn in Itaniums Markt spielt auch der Acht-Kern-Xeon keine Rolle
Am 26.05.2009 war man auf CB anderer Meinung:
Mit Nehalem-EX baut Intel zudem die RAS-Fähigkeiten ihrer High-End-x86-Plattform mit der Einführung von Machine-Check-Recovery (MCA) deutlich aus und nähert sich diesbezüglich deutlich der hauseigenen Itanium-Plattform an.
Volker schrieb:
da man ganz andere Anforderungen hat.
Einen großen Hauptspeicher (512GB-1TB) kann man auch mit dem Nehalem EX erreichen und RAS + MCA wurden ja schon oben erwähnt.

Crystal schrieb:
Es ging hier um den Cache
Und da haben weder AMD noch Intel was neues zu bieten.
Allerdings kann IBM wieder mal rufen: Erster! (genauso wie bei SOI ;)).
Im Gegensatz zu AMD kann IBM mit SOI auch etwas anfangen. 4-5GHz bei gleichbleibendem Stromverbrauch (zum Vorgänger POWER5) sind kein Problem. AMD hingegen kann weder den Stromverbrauch signifikant senken noch die Taktrate wesentlich steigern. Und Intel kommt mit dem althergebrachten gut zurecht, forscht aber auch an SOI bzw. ähnlichen Verfahren.

Crystal schrieb:
AMD hat als erstes meines Wissens die Richtung mit Mehrkern-Prozessorern eingeschlagen
Tja IBM war da mit dem POWER4 um 4 Jährchen schneller. Aber AMD Fans neigen oft dazu die Innovationen anderer als Erfindung des ewigen Zweiten zu preisen (siehe interner Speichercontroller, 64bit, HT-Link; all das gab es schon beim DEC Alpha ;))
 
6 Kerne der wahre burner. Sicherlich wird es erst ein Server prozzi und anschließend zu einem mainstream cpu.
Wenn der Preis stimmt, werde ich mir die 6 Kerne mir genau anschauen, da ich mir in geraumer Zeit ein neuem PC zulegen möchte.
 
das was man liest hört sich innovativ und zeitgemäß an.

Die Die-Fläche ist kleiner als beim Lynnfield, trotz 2 Kernen mehr, und die Stromsparmechanismen werden weiterentwickelt.

Das Powergating mit Kompettabschaltung von Kernen samt L3 Cache klingt fortschrittlich.

Man kann über Intel sagen was man will, aber es ist DIE Chipschmiede schlechthin.

Trotzdem bin ich unzufrieden darüber, dass es keine Nvidia-Chipsätze mehr seit Nehalem gibt.

Hoffe, dass die Wettbewerbshüter in USA da mal auf den Tisch hauen.
 
Allerdings kann IBM wieder mal rufen: Erster! (genauso wie bei SOI ).
Im Gegensatz zu AMD kann IBM mit SOI auch etwas anfangen. 4-5GHz bei gleichbleibendem Stromverbrauch (zum Vorgänger POWER5) sind kein Problem. AMD hingegen kann weder den Stromverbrauch signifikant senken noch die Taktrate wesentlich steigern. Und Intel kommt mit dem althergebrachten gut zurecht, forscht aber auch an SOI bzw. ähnlichen Verfahren.
...
Tja IBM war da mit dem POWER4 um 4 Jährchen schneller. Aber AMD Fans neigen oft dazu die Innovationen anderer als Erfindung des ewigen Zweiten zu preisen (siehe interner Speichercontroller, 64bit, HT-Link; all das gab es schon beim DEC Alpha )

Und IBM fertigt X86 Desktop Prozessoren? Wir reden hier über vom Grund auf unterschiedliche Architekturen und Einsatzgebiete, wenn ich mich nicht irre. Ich sagte nicht das AMD dies Erfunden hat sondern dass AMD dies als erstes auf dem Markt zu uns (ich rede von Deksotp x86) durchgebracht hat. Denn AMD Lizensiert ja sowieso die Erfindung anderer, genauso wie sie mit IBM zuammen Entwickeln und Forschen.

Also wenn wir bei Vergleich Intel und AMD bleiben, dann ist meine Aussage dass AMD (insbesondere im Vergliech von Größe, Gelder) doch innovativer ist. Intel wollte ja den Ghz Wahn weiterführen.. Und was hat Intel seit Pentium innovatives gemacht? C2D war einfach: vorhande Architektur 2 mal in ein Die im kleinerem Fertigungsprozess + 64Bit. Das ganze hatte AMD schon auf dem markt gehabt. Bisher geht es auch nur um hier und da kleinere Änderungen und neuer Fertigungsprozess. Alles ach so weltbewegend. Ich finde nur Intel sollte einfach die bis zum halse steckenden Mittel auch nutzen um den Fortschritt nicht hängen zu lassen. Aber lieber stecken die Milliarden in HP und andere Firmen sowie Ketten damit ausschließlich Intel angeboten wird. Aber alles offtopic.

Der Punkt bezüglich Cache war der dass AMD Z-Ram einführen wollt/will und dass es in dem Bereich doch noch was kommen kann und mMn wird. Der Cache muss kleiner werden.
 
Zuletzt bearbeitet:
Zurück
Oben