News HP liefert weiteren Sargnagel für Intels Itanium

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
HP hat mit der Neuauflage der auf Superdome X und NonStop X getauften Mission-Critical-Server-Systeme einen weiteren Nagel in den Sarg des Intel Itanium geschlagen. Denn fortan basieren die Systeme nicht mehr auf der extravaganten Architektur, sondern auf klassischem x86-Design. Begraben darf HP den Itanium aber (noch) nicht.

Zur News: HP liefert weiteren Sargnagel für Intels Itanium
 
Ich erinnere mich noch an dessen Anfänge. Was das doch für ein ambitioniertes Projekt war. Einige haben damals sogar spekuliert und gehoftt dass dieser den Pentium endlich ablösen würde. Und heute gurken wir noch immer auf der x86-Architektur herum.
 
Itanium bzw. IA-64 war doch von vornherein zum Scheitern verurteilt. Einer der vielen Irrwege von Intel. Ich sag nur RAMBUS, BTX, Netburst...
ich wusste ehrlich gesagt auch garnicht das da noch was entwickelt wird.
Sollen die den Mist einstampfen, wer damals darauf angesprungen ist hat doch selbst schuld. 2004 war vielleicht noch nicht klar ob AMD64 endgültig das Rennen machen wird oder nicht, aber seit spätestens 2006 ist man da doch schlauer.
 
Im Smartphone hat sich der effiziente RISC Ansatz durchgesetzt, da es anders nicht möglich war so viel Leistung in ein so kleines Gerät zu Packen.

Und bei den PCs haben sie jetzt eben so lange an den x86 CISC Prozessoren herum gedoktert, bis im tiefsten Innern immer mehr RISC Architekturen zu finden sind, welche die Effizienz steigern. Und Dadurch auch mit Großem Befehlsatz eine annehmbare Effizenz geschaffen haben. Und dadurch den Itanium Prozessor immer mehr Überflüssig machen.

Wahrscheinlich auch mit dem Druck immer Abwärtskompatibel sein zu müssen im Mainstream. Das Nischenprodukt Itanium hat sicherlich trotzdem einiges zu unseren aktuellen Mainstream Prozessoren beigetragen.
 
Zuletzt bearbeitet:
HP liefert weiteren Sargnagel für Intels Itanium
Angeblich soll es bisher umgekehrt gewesen sein, und HP an Intel Zahlungen geleistet haben um die Itanic überhaupt noch weiterzuentwickeln.

Wer es noch nicht kennt: :evillol:
Itanium_Sales_Forecasts_edit.png
 
@racer3

Dir ist hoffentlich klar, das heutige Prozessoren nichts mehr mit RISC und CISC zu tun haben.
Die sind vor allem eines "Superskalar".

Das bedeutet, das sich auf dem Prozessor ein Decoder befindet, der den Befehlsstrom noch einmal überarbeitet und dann an verschiedene Recheneinheiten im Prozessor verteilt. Von außen kann da keiner mehr feststellen, was im inneren eigentlich abläuft.
Das ist bei den ARM Prozessoren so und auch bei den X86 Prozessoren von Intel und AMD.


Zur Effizienz: Wenn RISC und ARM so viel effizienter als X86 sein sollen, warum verbrauchen die großen Modelle (Cortex-A15) dann so viel Strom?
An der Architektur liegt es wohl nicht.
 
EPIC war eigentlich keine schlechte Idee, man wollte Komplexität (z.B. Befehls-Scheduling) aus der CPU herausnehmen und in den Compiler verlagern. Superskalare System, ob jetzt mit RISC oder CISC Frontend, waren damals auch nicht neues und VLIW wurde auch genutzt (EPIC benutzt VLIW).

Ich finde EPIC hat viele tolle Ideen umgesetzt, man überlegte schon Mitte der 90er, wie man in Zukunft weiter kommt. Naja, jetzt wissen wir’s besser :freaky:

Gerade JIT-Compiler hätten hier helfen können (nutzen von Laufzeitanalysen etc.) und ich fürchte auch, dass bei HSA (mit HSAIL) es auch nicht besser wird, obwohl hier einen Riesen Potential schlummert, aber in 10 Jahren sind wir schlauer …
 
Intel hätte Itanium am liebsten schon vor Ewigkeiten verschrottet... aber die Enterprise-Verträge sind nunmal bindend... und so entwickelt man halbherzig am Itanium herum und verpasst ihm einfach einen doppelt so großen Cache, verkleinert die Strukturbreite und nennt das dann "neu".
 
EPIC und JIT beißt sich aber, da es den Aufwand für den Compiler steigert und der Benutzer nicht beliebig lange auf die Ausführung seines Programms warten will.
 
Der JIT-Compiler / Runtime könnte aber zu Laufzeit Informationen sammeln und evtl. Hotspots nachoptimieren. Gerade für Designs mit statischen Scheduling wäre eine Laufzeitanalyse mit dynamischen nachcompilieren sinnvoll.
Aber das ist OT, am Ende bleibt nur

Itanium war ein EPIC Fail (für Intel) :skull_alt:
 
Zuletzt bearbeitet:
Ironie der Geschichte:

Es war HP, der Intel zu der Itanium-Architektur gedrängt hat.
HP hat sozusagen das Pflichtenheft für den Itanium geschrieben.
Hätte HP sich vollständig durchgesetzt, dann hätte der Itanium heute noch mehr und fettere Features.

Für bestimmte Rechnerarchitekturen braucht man auch bestimmte Prozessor-Architekturen,
besonders wenn es um Hochverfügbarkeit geht und viel auf dem Spiel steht (Versicherungen, große Organisationen, usw.).

Nur mit Standard geht es eigentlich nicht (es sein denn auf Kosten der Sicherheit).
Deshalb lebt SPARC noch.

Aber der Itanium hat sein den ollen HP-Tagen, als HP noch selber im Prozessorgeschäft war, schon eine lange Zeit auf dem Buckel.
Eigentlich wäre es an der Zeit eine komplett neue Architektur aufzusetzen.
 
Zuletzt bearbeitet: (typo)
Winder schrieb:
... Dir ist hoffentlich klar, das heutige Prozessoren nichts mehr mit RISC und CISC zu tun haben.
Die sind vor allem eines "Superskalar" ...
Das kommt drauf an, wie eng man den Begriff RISC fasst. Fasst man ihn sinnvoll etwas weiter, nämlich so, dass das "reduced" in RISC lediglich bedeutet, dass alle Befehle der ISA die gleiche Länge haben, dann existiert dieser Unterschied nach wie vor genauso wie eh und je. Und das macht gerade mit den Decodern einen erheblichen Unterschied im Stromverbrauch, weil das Übersetzen der x86-Befehle durch die variable Länge dieser wesentlich aufwändiger zu implementieren ist, also aufwändigere, mehr Strom verbrauchende Decoder voraussetzt. Die Hoffnung der x86-Welt bestand ein Jahrzehnt lang auf der Argumentation, dass man ja mit immer mehr Kernen immer weniger Prozent der Transistormasse für die Decoder brauchen würde - was aber nur funktioniert, wenn eben nicht jeder Kern seinen eigenen Decoder bekommt und es gibt genau zwei x86-Designs, die das umgesetzt haben: AMD Bulldozer und Piledriver. Was daraus geworden ist, sieht man an Steamroller (Kaveri, Berlin) - Pustekuchen. Warum Intel dennoch besser ist in Leistung pro Watt? Weil Fertigungsprozess und andere Designentscheidungen den Stromverbrauch ebenfalls beeinflussen. Das heißt aber eben nicht, dass der negative Einfluss des Decoders nicht existieren würde. Er ist nur bei der derzeitigen Marktlage mit Intels Fertigungsvorsprung nicht offensichtlich.

Nichtsdestotrotz spielt die Frage RISC vs. CISC beim Itanium keine große Rolle. Hier gehts vielleicht um sowas wie, dass vor zehn Jahren, als die Modelle noch nicht von Intel mit veralteter Fertigung herausgebracht wurden, die Marketingabteilungsleiter nicht verstanden, dass eine geringere RAM-Bandbreite dann kein Nachteil ist, wenn ein Prozessor weniger mit dem RAM kommunizieren muss, weil er ein riesiges Registermonster ist, das wesentlich mehr im Rechenwerk speichern kann als die x86-Prozessoren. Itanium hätte sich lohnen können, wurde aber die letzten zehn Jahre nicht ernsthaft gefördert und der Markt für Nicht-86 ist offensichtlich zu klein für mehr als Power, z, Sparc.
 
Zuletzt bearbeitet:
Zurück
Oben