News Intel Itanium: Poulson-Nachfolger Kittson soll Mitte 2017 erscheinen

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Immerhin - ich wusste gar nicht, dass es diese Reihe gibt. :D
Dazu eine Frage: Welche Vorteile bietet eine reine 64-Bit CPU gegenüber einer klassischen x86 mit Erweiterung?
 
Beitrag schrieb:
Immerhin - ich wusste gar nicht, dass es diese Reihe gibt. :D
Dazu eine Frage: Welche Vorteile bietet eine reine 64-Bit CPU gegenüber einer klassischen x86 mit Erweiterung?
Im Grunde wurde die Software, mit der man die Dinger betreibt extra für die CPU geschrieben. Das geschah ja zu einer Zeit, bevor es die x86 Erweiterung gab.

Ein großer Vorteil der Itanium war auch, dass man sie weit aus besser parallel schalte konnte, als die x86 damals. Ob das immer noch so ist, weiß ich nicht.

Ich glaube nicht, dass man heute noch neue Software dafür entwickelt und ich glaube Intel wäre es auch lieber, wenn die Dinger schon längst weg wären.
 
Itanium? Ich dachte diesen Rohkrepierer gäbe es schon gar nicht mehr. Und jetzt wollen die tatsächlich nochmal ne neue CPU bringen?
 
CCIBS schrieb:
Ein großer Vorteil der Itanium war auch, dass man sie weit aus besser parallel schalte konnte, als die x86 damals. Ob das immer noch so ist, weiß ich nicht.

Ich glaube nicht, dass man heute noch neue Software dafür entwickelt und ich glaube Intel wäre es auch lieber, wenn die Dinger schon längst weg wären.

Wenn es nur um bessere Parallelisierbarkeit geht, dann hat die Architektur heute doch quasi gar keine wirklichen Vorteile mehr, oder? HT und viele Kerne oder GPU Computing erzielen doch den selben Effekt, oder?
 
mit besserer Parallelisierbarkeit war ja auch gemeint, dass der Itanium Code viel besser auf mehreren Cores läuft als x86er Code bei dem man sich heute noch schwer tut mehr als 2 kerne zu befeuern.

Schade, dass es nicht mehr so viele mutige vorstöße in dem Bereich CPUs gibt, früher war das Prozessorgeflüster immer die erste Seite die ich in der CT aufgeschlagen habe. Man hatte das gefühl, dass fast alle 2 Wochen wieder irgend ne nischen CPU nen quantensprung gemacht hat. Egal ob SGI IBM Intel AMD Cyrix, jede Ausgabe gabs wieder irgendwas was CPUs auf ein neues lvl heben könnte. vieles kam natürlich nie in der Serie an. Ich warte noch heute auf Polymer Speicher der Terrabyteweise Daten schluckt im Scheckkartenformat.
 
Viele Vorteile hat Itanium nicht, nein. Itanium (bzw IA64) war ja ursprünglich als Ersatz für x86 gedacht und sollte dank seiner puren 64-Basis sehr zukunftssicher sein. Das hatte mit Sicherheit auch ein paar kleinere Vorteile, wie eben die bessere Parallelisierung; Problem war nur die katastrophale Abwärtskompatibilität zu x86-basierter Software. Bei den ersten Itanium-CPUs musste meines Wissens nach eine x86-Umgebung emuliert werden, was die Performance locker mal geviertelt hat. Damit hatte Itanium im Home-PC Bereich gar keine echte Chance und als AMD dann die ersten Opterons mit x86-64 als abwärtskompatible Erweiterung vorgestellt hat war auch der Servermarkt futsch. Für die Entwickler hat sich Itanium einfach nicht gelohnt: Die leichten Kosteneinsparungen durch die Vorteile wurden durch die Entwicklungskosten für eine komplett neue Architektur zunichte gemacht. Was blieb waren Langzeit-Verträge mit HP, die bei der Entwicklung von Itanium mitgeholfen haben.

Irgendwas sagt mir dass Intel Itanium am liebsten schon vor 10 Jahren eingestampft hätte, wenn da nicht die Vertragsbedingungen gewesen wären.
 
Beitrag schrieb:
Immerhin - ich wusste gar nicht, dass es diese Reihe gibt. :D
Eh nicht mehr lange, Intel muß nur Vergräge mit HP einhalten.
Oracle mußte eine hoeh Strafe zahlen, weil sie den Support zu früh eingestellt haben!

Welche Vorteile bietet eine reine 64-Bit CPU gegenüber einer klassischen x86 mit Erweiterung?
Gar keine, weil eine AMD64-CPU auch eine echte 64bit CPU ist, sie kann nur zusätzlich noch 32/16bit ausführen.
Also da wird bei AMD64 nichts emuliert, es ist natives 64bit!


CCIBS schrieb:
Im Grunde wurde die Software, mit der man die Dinger betreibt extra für die CPU geschrieben.
Naja, wie es eh immer ist.
Software muß immer auf eine Zielarchitektur kompiliert werden.
Egal ob es IA64, AMD64, Sparc,... ist!

Ein großer Vorteil der Itanium war auch, dass man sie weit aus besser parallel schalte konnte, als die x86 damals.
Also das ist jetzt aber schon Unsinn.
Software kann genauso auf AMD64, POWER,... parallel arbeiten, also viele Kerne nutzen.
Es liegt an der Software und nicht an der ISA!

Ich glaube nicht, dass man heute noch neue Software dafür entwickelt
Sicher nicht, IA64 ist tot!

und ich glaube Intel wäre es auch lieber, wenn die Dinger schon längst weg wären.
Ganz sicher sogar, die müßen nur noch die Verträgt mit HP einhalten.
Wahrscheinlich machen sie mit dem Itanium eh Verlust!


Onkelpappe schrieb:
mit besserer Parallelisierbarkeit war ja auch gemeint, dass der Itanium Code viel besser auf mehreren Cores läuft als x86er Code bei dem man sich heute noch schwer tut mehr als 2 kerne zu befeuern.
Das kommt auf den code an, wenn der auf einem Itanium viele Kerne nutzt gejht das auch bei AMD64 oder POWER,...
Es komtm also auf die Art der Berechnungen an, was sich auf anderen ISAs nicht parallelisieren lässt, läuft auch auf IA64 nicht parallel.

Man hatte das gefühl, dass fast alle 2 Wochen wieder irgend ne nischen CPU nen quantensprung gemacht hat. Egal ob SGI IBM Intel AMD Cyrix, jede Ausgabe gabs wieder irgendwas was CPUs auf ein neues lvl heben könnte.
Wenn du dich für CPUs interessierst, dann warte auf die Hotchips.
Da stellt Google einen Chip für selbstfahrende Autos vo, IBM stellt den POWER9 vor und vieles Andere.
http://www.hotchips.org/program/
 
ich meinte mit besserer parallelisierung auch eher die technischen vorraussetzungen, wie interconnects direkt zwischen cpus etc. dass eine cpu also direkt für einen mehrkern einsatz gedacht ist. als der itanium entwickelt bzw auch veröffentlicht wurde wars ja noch usus in der x86 welt, dass alles über den arbeitsspeicher geregelt wurde bzw über den flaschenhals FSB. Diese Probleme haben aktuelle x86 CPUs ja nicht mehr, weil sie auch über schnelle Interconnects wie Hypertransport oder Quickpath untereinander kommunizieren können.

Von den alten x86 alternativ entwicklungen ist ja leider nur IBMs Power PC geblieben, und Arm hat sicht noch breit gemacht.

SGI nutzt nur noch bestehende Technologien, Ultrasparc Tod
Alpha Tod
MIPS seit 2004 nichts neues
HP PA-RISC tod

Man siehts auch schön an Intel selber, früher diverse Architekturen, heute nur noch fokusiert auf x86

xScale tod
Itanium liegt im sterben

Googles Chip verfolge ich natürlich auch mit spannung, aber ich befürchte es wird nur ein sehr spezialisierter ic werden.
 
Onkelpappe schrieb:
ich meinte mit besserer parallelisierung auch eher die technischen vorraussetzungen, wie interconnects direkt zwischen cpus etc. dass eine cpu also direkt für einen mehrkern einsatz gedacht ist.
Warum sollten Interconnects von der ISA abhängig sein?

als der itanium entwickelt bzw auch veröffentlicht wurde wars ja noch usus in der x86 welt, dass alles über den arbeitsspeicher geregelt wurde bzw über den flaschenhals FSB.
Was früher war ist doch total egal.

Von den alten x86 alternativ entwicklungen ist ja leider nur IBMs Power PC geblieben
Sparc gibt es auch noch, MIPS auch.
PPC ≠ POWER!

MIPS seit 2004 nichts neues
Doch!

Man siehts auch schön an Intel selber, früher diverse Architekturen, heute nur noch fokusiert auf x86
Was ist schlecht daran, wenn sich Intel nur noch auf AMD64 konzentriert?

Ist doch egal, war doch eh nur ARM unter Vielen.
 
Zuletzt bearbeitet:
es ging beim Itanium ja nich nur darum, einen neuen ISA zu etablieren, sondern auch Zöpfe abzuschneiden die wir noch heute im x86 Bereich mitschleppen. Leider ist die Wintel Welt nicht so mutig wie Apple auch mal altes hinter sich zu lassen. und was früher war ist schon interessant wenn man beleuchtet, wieso intel IA64 entwickelt hat.
Hätte es sich heute durchgesetzt würden wir heute x86 belächeln und x86-64 hätte es nie gegeben. Hätte MS nicht AMD64 zum Windows64 Standard erkoren hätten wir heute was anderes und wir würden AMDs versuch einen Standard zu etablieren belächelt. Hinterher ist man halt immer schlauer.

Und zumindestens ab dem G5 ist PowerPC schon gleich IBM Power, auch wenns danach leider vorbei war mit G Macs :-D und auch vorher war IBM immer teil von AIM und hat wohl auch teile ihrer Power entwicklung mit einfließen lassen.

MIPS wird nur noch weiterverkauft, ausser ein paar ausflügen in Android Geräten vor nen paar Jahren konnte ich da wenig recherchieren, sie gehören wohl inzwischen zu Imagination.
Sparc wird nur noch von Fujitsu(oracle hat wohl auch noch paar server im sortiment) am leben gehalten, immernoch in Version 9 aus den 90ern, ähnlich wie Itanium bei Intel ein sterben auf Zeit.
Hätte Intel die Entwicklung von xscale oder alternativen mobilen designs nicht aufgegeben würden sie heute nicht versuchen mit krüppel Atoms gegen ARM anzukommen.

Es liegt wohl auch einfach daran, dass wir heute Leistung satt haben, und nicht mehr wie in den 90ern auf jeden flop mehr schielen. Im massenmarkt gibt es mobil nur noch ARM und stationär halt Intel die zu günstigen preisen mehr power abliefern als otto normalo user benötigt.
 
In der Theorie ist der Itanium schon lange tot. Aber leider haben einige wichtige Unternehmen auf diese Plattform gesetzt und sich über langfristige Verträge gesichert, dass Ihre Software dafür noch weiter entwickelt/gewartet wird. Das dürfte auch der Grund sein, wieso Intel dieses tote Pferd immer noch weiterreitet.

Die Idee von Itanium (VLIW) kann man bestimmt gut bei Wikipedia nachlesen. Mit Parallelisierung auf mehrere Cores hatte das eher weniger zu tun, sondern eher dass man die Auslastung der Ausführungseinheiten und letztendlich die IPC für einzelne Threads verbessert wollte. Deshalb hat man "sehr große Instruktionen" (=VLIW) erfunden, die quasi mehrere Einzelinstruktionen enthalten, die unabhängig voneinander sind und von der CPU daher parallel abgearbeitet werden können.
Die ganze Arbeit dafür hat man dem Compiler aufgebürdet.
Leider haben die Compiler so weit ich das beurteilen kann nie ein zufriedenstellendes Level erreicht und der Anteil der VLIW, die nur aus einer Instruktion und ein paar NOPs bestehen war einfach zu hoch.
Ansonsten ist das Konzept einfach konsequent auf Server ausgelegt (z.B. ECC) und sich so wie x86 auf möglichst viel Performance und dabei möglichst billig.
Ich sehne den Tag herbei, an dem meine Software nicht mehr auf Itanium laufen muss, aber ich fürchte der könnte noch bis zu meiner Rente erhalten bleiben.
 
Itanium brachte einige RAS Funktionen mit die vorher in x86 nicht gab. Erst nach einiger Zeit wanderten einige davon in E7 und co. Somit ist die Auswahl für diese Bereich zu den Zeiten nicht wegen der Performance erfolgt. Das ist auch heute noch so. Die Zuverlässigkeit der Plattform hat hier keiner im Blick aber das ist das wichtigste.

In Mission Critical-Bereiche (wo Superdome und co. hauptsächlich verbaut wird) werkeln die alten Dinger, wie auch die Mainframes, immer noch vor sich hin ohne signifikante Ausfälle. Die Software dazu ist schon sehr alt, oft aber noch immer geschäftskritisch und wurde über zig Jahre so gut wie fehlerfrei. Da werkelt man nicht einfach mal so dran rum oder migriert. Deshalb auch die langen Support-Laufzeiten.

Viele große internationale Konzerne wie Banken setzen die ala Superdome immer noch ein und sind davon abhängig. Ein Ausfall dieser Systeme über Stunden könnte das Ende einer Bank bedeuten, der könnte nämlich keine Transaktionen mehr abwickeln und wäre innerhalb einiger Stunden faktisch insolvent.
 
Zuletzt bearbeitet:
Ueberrascht wirklich.

Da aber der gleiche Sockel verwendet wird, frag ich mich ob ich meine SGI Prism damit aufruesten kann? ^^
 
Beitrag schrieb:
Wenn es nur um bessere Parallelisierbarkeit geht, dann hat die Architektur heute doch quasi gar keine wirklichen Vorteile mehr, oder? HT und viele Kerne oder GPU Computing erzielen doch den selben Effekt, oder?
Sicher, heute ja. Damals sah es anders aus, besonders da man die heutig überlichen X86 nicht in der größen Ordnung benützte (wenn sich mein Gedächtnis nicht irrt).

chatstar schrieb:
Naja, wie es eh immer ist.
Software muß immer auf eine Zielarchitektur kompiliert werden.
Egal ob es IA64, AMD64, Sparc,... ist!
Genau, und deshalb gibt es ja diese CPUs, weil man sonst diese Software die noch zum Teil benützt wird umschreiben müsste.

Ansonsten haben hier ja einige auch schon erklärt, weshalb es diese CPU noch gibt, auch wenn es nach heutigen Gesichtspunkten etwas absurd erscheint.
 
Zurück
Oben