News Intel: Details zur 3,1-Mrd.-Transistor-CPU „Poulson“

Ja, aber die Frage ist doch eher ob 50MB stromfressender Cache das "mehr" an Leistung bringen oder ob es nicht sinnvoller ist jeden Kern 1mb zu spendieren und dafür gleich 20 Kerne zuverbauen. Zumindest scheint man die Anbindung nun langsam in den Griff zu kriegen, aber die 30% mehr halte ich für wenig realistisch. Man stelle sich nur mal vor das kein CacheHit zustande kommt, wenn da erst 50MB abgesucht werden müssen und die Taktfrequenz nicht sehr hoch liegt gibs da ganz schnell Probleme. Dann schon eher 128MB Cache und auf den RAM komplett verzichten.

Ich muss ein wenige schmunzeln, wenn ich solche Beiträge lese.
Da sitzen dutzende bis hunderte richtig schlaue Techniker an der Entwicklung eines solchen Prozessors. Da wird ganz sicher sehr genau untersucht was sinnvoll, möglich und effizient ist, denn da werden Weichen gestellt, die die Unternehmens- und Produktentwicklung der nächsten Jahre beeinflussen. Da wird rein gar nichts dem Zufall überlassen.

Ich glaube kaum dass der Aspekt "Man stelle sich nur mal vor das kein CacheHit zustande kommt, wenn da erst 50MB abgesucht werden müssen und die Taktfrequenz nicht sehr hoch liegt gibs da ganz schnell Probleme." bislang einfach nicht bedacht wurde. Das sind Designbasics.

Ich möchte wirklich keinem zu nahe treten (!, weswegen ich auch bewusst den Autorennamen beim Zitat weglasse. Das Posting dient nur als Beispiel) wundere mich nur manchmal was im Allgemeinen so hinterfragt wird.
 
CHAOSMAYHEMSOAP schrieb:
Nachdem der Alte eine lahme Ente ist, die niemand will, ist das wohl das Mindeste, was man vom Neuen verlangen muss. ;)

Die Antwort von IBM dürfte wesentlich interessanter und innovativer sein.

in der Tat, aber was erwartet man auch von einer 65nm CPU...

IBM ist aber auch nochmal ne andere Klasse für sich,wo die CPU statt 5k dann bis 500k kostet...

Ich finde es eher bemerkenswert, dass man diese Architekturänderung + den komplett anderen Aufbau der CPU kompatibel hin bekommt...
 
ewndb schrieb:
Ja, aber die Frage ist doch eher ob 50MB stromfressender Cache das "mehr" an Leistung bringen oder ob es nicht sinnvoller ist jeden Kern 1mb zu spendieren und dafür gleich 20 Kerne zuverbauen. Zumindest scheint man die Anbindung nun langsam in den Griff zu kriegen, aber die 30% mehr halte ich für wenig realistisch. Man stelle sich nur mal vor das kein CacheHit zustande kommt, wenn da erst 50MB abgesucht werden müssen und die Taktfrequenz nicht sehr hoch liegt gibs da ganz schnell Probleme. Dann schon eher 128MB Cache und auf den RAM komplett verzichten.

Ohne RAM geht es nicht und ohne den Cache auch nicht, IA64 ist auf hohe Parallelität aus gelegt, was auch schon ein wenig in der Befehlssatz wieder spiegelt. EPIC. ;) Die profitieren also von größerem Cache und auch von Arbeitsspeicher. ;)
 
Da sitzen dutzende bis hunderte richtig schlaue Techniker an der Entwicklung eines solchen Prozessors.

Und das garantiert Erfolg?, Ich glaube das da auch ein erhebliches "FAIL-Potenzial" mitschwingt und genau drauf wollte ich hinweisen. Wenn du das so komisch findest.. die Zukunft wird es zeigen. Es wäre aber nicht das erste mal das man beim Itanium versagt, man erinnere sich nur an die x64 Geschichte.

Ohne RAM geht es nicht und ohne den Cache auch nicht...

Tja, nur komisch das bei der PS3 256 MB XDR DRAM eingesetzt werden. Das nennt sich zwar aufgrund der Anbindung noch RAM, ist aber mit 3,2Ghz als Mainboard Cache zu betrachten. Ergebnis ist eine immense Rechenleistung die jedoch nur schlecht genutzt werden kann.
 
Ich verstehe nicht den Sinn hinter solch einen Prozessor.

Inzwischen versucht man nur noch die Leistungsaufnahme zu senken bei gleichbleibender oder besserer Leistung, aber wozu sollten sich selbst große Unternehmen mit riesigen Rechenzentren so einen Energieschleuder einbauen?
 
Wasn Monster.

Ich weis das es Itanium lange gibt, aber wofür werden die überhaupt mit der Leistung gebraucht? DESY - zur Berechnung der Flugbahn?
 
ewndb schrieb:
Tja, nur komisch das bei der PS3 256 MB XDR DRAM eingesetzt werden.

Trotzdem ersetzen die professionellen PowerXCells den XDR Speicher durch 32GB DDR2 RAM (dazu noch deutlich schnellere DP/GFLOP Performance als beim PS3 Kinderkram).
Tja, so toll scheint XDR (der auch schon veraltet ist) auch nicht zu sein, oder?

Und der L3 Cache moderner CPUs ist noch immer schneller als XDR RAM.
Auch IBM setzt beim POWER7 auf einen großen L3 Cache, obwohl der RAM Speicher 100GB/s liefern soll.

Omega4 schrieb:
Inzwischen versucht man nur noch die Leistungsaufnahme zu senken bei gleichbleibender oder besserer Leistung, aber wozu sollten sich selbst große Unternehmen mit riesigen Rechenzentren so einen Energieschleuder einbauen?
Weil große Unternehmen zuverlässige Systeme wollen und da kann x86 Stromsparschrott nicht mal ansatzweise mithalten (bzw. Intels S1567 CPUs sind auch Schluckspechte).
 
Und der L3 Cache moderner CPUs ist noch immer schneller als XDR RAM.
Gar keine Frage, darum ging es mir auch garnicht.
Tja, so toll scheint XDR (der auch schon veraltet ist) auch nicht zu sein, oder? ..... Auch IBM setzt beim POWER7 auf einen großen L3 Cache, obwohl der RAM Speicher 100GB/s liefern soll.
IBM nimmt aber auch eDRAM als Cache (XDR@CPU?!) nicht zuletzt um Transistoren zu sparen. Zudem ist vorerst jedem Kern 4mb zu gewiesen, auch die maximale Größe mit ~30MB ist deutlich weniger als hier. IBM spricht auch nicht von 30% schnellere Anbindung, sondern von 6 facher. Bleibt die Frage nach Kosten und Leistung/Watt, die Zukunft wird es zeigen.
 
Kasmopaya schrieb:
Immer lustig zu sehen bei den CPUs, die Hälfte davon ist nur Speicher also Cache, bei den GPUs genau umgedreht, da ist alles voller Kerne und nur ein bisschen Cache. Intel könnte eigentlich Speicherriegel mit eingebautem Kern drauf schreiben. :rolleyes:

Mag wohl mit den doch deutlich unterschiedlichen Aufgaben zusammenhängen, die GPU und CPU erledigen... von Notwendigkeit einer weit größeren Vielseitigkeit und damit verbundenem Kommunikations und Verwaltungsaufwand bei CPUs mal ganz abgesehen.

Kurz: ich kann Deinem Post absolut nichts abgewinnen :lol:
 
input_iterator schrieb:
Was die TDP angeht, soll er effizienter als Tukwila sein und der hat sich
auch schon mal bis 185 Watt genehmigt.Bin mal auf die neuen Chipsätze
gespannt die zum Launch der CPU erscheinen sollen.

bei doppelten shrink wärs schlimm wenn nicht ^^
 
Als waschechte 64 Bit RISC Architektur sind die Itanium natürlich gerade im rechenintensiven Bereich nahezu 'Gold' wert (gemessen am Preis könnte man das auch fast annehmen).

Schade, daß diese CPUs nicht in direkte Konkurrenz günstiger und breiter mit entsprechenden Plattform zu den schrottigen x86-Ablegern mit ihrem Pseudo-64 Bit Design auftreten.
 
ewndb schrieb:
In Informatikvorlesungen lernt man relativ schnell, wenn man auf Mikroprozessor-Technik geht, das RAM eine deutlich höhere Latenz hat, als L1, L2 oder L3 Cache. ;) Da nütz dir auch nicht die 100GiByte/s-Anbindung nichts. Zudem besitzt auch der Cell in der PS3 einen eigenen L1 und L2 Cache für den PowerPC-Kern. Da würde es mal nicht schaden, sich vorher zu Informieren. Zudem verfügt jede SPE auch noch mal über 256KiB Cache und die 256MiB XDR-Ram werden über einen Memory-Controller angebunden. So, was ist da groß anders? Die Latenz des XDR-Rams ist immer noch größer als die des L1 und L2 Cache des PowerPC-Kerns und des 256KiB-Cache der SPEs. ;)




Eisenfaust schrieb:
Eisenfaust, IA64 ist keine RISC-Architektur sondern EPIC/VLIW. ;)
 
Eisenfaust schrieb:
Schade, daß diese CPUs nicht in direkte Konkurrenz günstiger und breiter mit entsprechenden Plattform zu den schrottigen x86-Ablegern mit ihrem Pseudo-64 Bit Design auftreten.

Das hat uns damals AMD verwehrt mit ihren Pseudo-64 bit worauf Microsoft angesprungen ist. Das war die Chance um von x86 los zu kommen. War aber auch nicht der erste Versuch von Intel.

Lustig finde es nur das alle über den Itanium meckern und meinen der ist zu langsam im x86 Modus. Ich vergleich ja auch nen nen LKW mit nen Sportwagen und meckere rum wenn der LKW langsamer ist als der Sportwagen.
 
Was heisst da 3,1Mrd Transistor-Monster ?! Hätte Nvidia diese CPU gebaut, hätte sie 12 Mrd Transistoren (und würde dann bei einer Ausbeute von 0,02% höchstens 600Mhz mitmachen).

Schon ein Fermi hat 3Mrd Transistoren, wobei man CPU und GPU natürlich nicht vergleichen kann. Beide haben ihre Stärken und Schwächen, da sie für unterschiedliche Zwecke konzipiert wurden.

Lustig finde es nur das alle über den Itanium meckern und meinen der ist zu langsam im x86 Modus. Ich vergleich ja auch nen nen LKW mit nen Sportwagen und meckere rum wenn der LKW langsamer ist als der Sportwagen.

Oder beschwert sich einer, dass ein Ferrari keine 40 Tonnen transportieren kann ?
 
Artikel-Update: Die Kollegen der japanischen Seite PCWatch bringen als Teilnehmer der Veranstaltung einige weitere Informationen mit. Demnach wird sich „Poulson“ aufgrund der gleichen Plattform auch in die gleichen TDPs einordnen. Als Richtwert gilt eine Zahl von maximal 170 Watt, aktuell Modelle sind sogar bis 185 Watt spezifiziert.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Gleichzeitig geben die Kollegen etwas mehr Auskunft über die Cache-Verteilung. Neben 16 KB für Instruktionen und Daten, wird jeder der acht Kerne 512 KB L2-Cache für Instruktionen bekommen, zusätzlich noch 256 KB Cache für Daten. Gemeinsam greifen die acht Kerne auf 32 MB L3-Cache zu. Bis zu den von Intel berichteten insgesamt 54 MB Cache, von denen 50 MB allein auf SRAM entfallen sollen, fehlen aber noch ein paar MB – auch wenn bereits die 2 × 1,5 MB Directory-Cache mitgezählt werden. Wo der Hersteller die genau unterbringt, dürfte erst zur näher rückenden Vorstellung bekannt werden.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Einen Termin hat Intel aber auch heute nicht genannt. Die eigene Roadmap spricht von „Future“, was demnach eher das Jahr 2012 bedeuten dürfte. Ein eingehaltener Zeitplan wäre ohnehin wichtig, zeichneten sich die letzten Itanium-Prozessoren immer durch massive Verspätungen aus, weshalb die gesamte Plattform mehr und mehr ins Abseits geschoben wurde.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
Floletni schrieb:
Das hat uns damals AMD verwehrt mit ihren Pseudo-64 bit worauf Microsoft angesprungen ist. Das war die Chance um von x86 los zu kommen. War aber auch nicht der erste Versuch von Intel. [...]

Super, dann hätten wir jetzt auf dem Desktop IA64 mit grottenschlechter Emulation von x86 am Hals.
Es wurde ja jetzt nichtmal geschafft, richtig auf 64Bit umzusteigen, meinst du die Softwareschmieden hätten es schneller geschafft auf IA64 umzusteigen? :freak:
Ausserdem gibt es immer noch PowerPC und die ist um Längen die bessere Architektur.
Wenn also schon einen Umstieg auf eine andere Architektur, dann doch bitte gleich richtig und nicht wieder auf so eine halbgare Intel Entwicklung.
 
pff anstatt dass die mal wege gehen die effizienz zu erhöhen .. nein immer mehr und mehr strom müssen die dinger fressen
 
Zurück
Oben