MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 14.354
@ Bueller
Appro macht wie alle vorher von dir genannten Datenbank-Mainframes, wofür Itanium, dessen Stärke FP-Berechnungen sind, nicht benötigt wird, Colfax macht jetzt in Tesla-Cluster und scheint nicht erklären zu wollen, warum zwei verschiedene teure Supercomputerkonzepte toll sein können (IBM dagegen macht sowas, die bauen sowohl reine Power- als auch Cell-Cluster, aber die verkaufen insgesamt vermutlich auch deutlich mehr HPC-Rechner als Colfax). Mich würde auch mal interessieren, wieviel Prozent des Itanium-Geschäfts diese Fremdfertiger überhaupt jemals hatten oder ob nicht HP in den letzten nacht Jahren immer der einzige wirklich wichtige Itanium-Verkäufer gewesen ist.
Der Itanium wäre sicherlich tot, wenn HP aussteigen würde, nur ist nicht gesagt, dass HP aus Itanium aussteigt, nur weils in einer großen Finanzmarktkrise mal rote Zahlen schreibt. Ich zitiere mal die englische Wikipedia: "HP is the largest technology company in the world", dagegen sind Unternehmen wie Colfax Winzlinge. HP entwickelt im Gegensatz zu IBM seine Prozessoren nicht mehr selbst, sondern lässt das Intel tun, aber trotzdem ist Itanium für HP schon ungefähr das, was Power für IBM ist. IBM kann damit leben, der größtenteils einzige Lieferant von Power-HPC-Rechnern zu sein, warum sollte HP dann im Gegenzug nicht damit leben können, der einzige Lieferant von Itanium-HPC zu sein?
@ alle
Ich sage ja nicht, und habs auch in den letzten acht Jahren mit Sicherheit nie getan, dass Itanium ein glorreiches überall finanziell erfolgreiches Produkt ist und vielleicht waren die ersten zehn Jahre der Entwicklung viel zu viel ausgegebenes Geld. Aber dieses Geld ist eh weg. Niemand bekommt es zurück, wenn er jetzt die Weiterentwicklung des mittlerweile marktfähigen Produktes beendet. Und HP hat gerade erst vor einem halben Jahr den Verkauf von PA-RISC-HPC-Rechnern gestoppt um sich in dem Bereich auf Itanium festzulegen, da wird HP kaum plötzlich von Itanium auf x86 für HPC umschwenken, nur weil andere das tun. Colfax baut jetzt Tesla-Cluster als HPC, aber irgendwie hat CUDA deutlich weniger Softwarebasis als IA-64.
HP hat PA-RISC-HPC zugunsten Itanium eingestellt, PA-RISC-Server werden aber noch auf Jahre weiterverkauft - das zeigt doch nun mal deutlich, dass euer Datenbankserverargument keine wirksames ist. Itanium hat pro Integerleistung die meiste FP-Leistung (oder pro FP-Leistung die geringste Integerleistung) von allen General-Purpose-Architekturen, ich finds nicht unlogisch, dass man sowas nicht in Datenbankservern versauern lässt.
Das Problem, das meisten Leute mit Itanium haben, ist, dass sie ihn immernoch allein an dem messen, was er vor 15 Jahren mal sein sollte - übrig geblieben ist ein General-Purpose-HPC-Prozessor. Hätte man vor fünfzehn Jahren gewusst, dass die anderen Architekturen ihre Zukunftsaussichten dermaßen gut ändern konnten (damit hat auch Multicore-Design etwas zu tun), was ja der Grund ist, warum Itanium im Vergleich die anderen nicht extrem überholt - nicht weil Itanium nicht so gut wäre, wie erwartet worden war, sondern weil alle anderen nicht so schlecht geworden sind, wie erwartet worden war, hätte man also gewusst, dass weder RISC noch x86 für Desktops und Server schlechter geeignet sein würden, als Itanium, hätte man sicherlich die Entwicklung eingestellt - dafür ist es jetzt aber nunmal zu spät. Der EPIC-Prozessor ist marktfertig entwickelt und die Investitionskosten der 90er kann man sich nicht durch Zauberei irgendwie zurückholen, indem man meint jetzt heute Itanium einzustellen. Wichtig für die Itaniumzukunft ist nicht, wie hoch die nicht rückholbaren Kosten der Vergangenheit waren, sondern ob die Invetsitionskosten der Zukunft durch die Verkaufe getragen werden können.
Sind Nvidia-Tesla-Cluster, mit denen Colfax seine Itanium-Cluster ersetzt hat, eine Gefahr für Itanium? Vermutlich ja, genauso wie für jeden anderen General-Purpose-HPC-Prozessor. Aber gegen Itanium wird zehn Jahre nach seiner Markteinführung immernoch ins Feld geführt, dass der Befehlssatz zu neu und damit verfügbare Software zu wenig sei - wo ist denn die CUDA-Softwarebasis?
Und mich würde auch mal interessieren, wie viele der ach so tollen x86-Cluster aus Boards mit mehr als zwei Sockeln pro Board bestehen. Da gehts weder um Leistung pro Watt, noch um Green IT, sondern um möglichst billige Rechner, was man leicht grün kaschieren kann, weil der Itanium pro Prozesssor mehr Watt verbraucht, als als ein einzelner Xeon; ob er bei der spezifischen Anwendung dann vielleicht auch deutlich mehr leisten würde, ist dabei egal. Google benutzt seit Jahren keine Serverfestplatten mehr, sondern 7200 U/min SATA-Platten, weil die bei gleicher Leistung, wenn man bspw. zwanzig Desktop-Platten statt zehn 15k-Serverplatten zusammenschaltet, billiger sind - aber die verbrauchen dabei mehr Strom, als die gleiche Leistung mit 15k-Serverplatten. Genauso sehe ich das mit x86 in Großrechnern.
Appro macht wie alle vorher von dir genannten Datenbank-Mainframes, wofür Itanium, dessen Stärke FP-Berechnungen sind, nicht benötigt wird, Colfax macht jetzt in Tesla-Cluster und scheint nicht erklären zu wollen, warum zwei verschiedene teure Supercomputerkonzepte toll sein können (IBM dagegen macht sowas, die bauen sowohl reine Power- als auch Cell-Cluster, aber die verkaufen insgesamt vermutlich auch deutlich mehr HPC-Rechner als Colfax). Mich würde auch mal interessieren, wieviel Prozent des Itanium-Geschäfts diese Fremdfertiger überhaupt jemals hatten oder ob nicht HP in den letzten nacht Jahren immer der einzige wirklich wichtige Itanium-Verkäufer gewesen ist.
Der Itanium wäre sicherlich tot, wenn HP aussteigen würde, nur ist nicht gesagt, dass HP aus Itanium aussteigt, nur weils in einer großen Finanzmarktkrise mal rote Zahlen schreibt. Ich zitiere mal die englische Wikipedia: "HP is the largest technology company in the world", dagegen sind Unternehmen wie Colfax Winzlinge. HP entwickelt im Gegensatz zu IBM seine Prozessoren nicht mehr selbst, sondern lässt das Intel tun, aber trotzdem ist Itanium für HP schon ungefähr das, was Power für IBM ist. IBM kann damit leben, der größtenteils einzige Lieferant von Power-HPC-Rechnern zu sein, warum sollte HP dann im Gegenzug nicht damit leben können, der einzige Lieferant von Itanium-HPC zu sein?
@ alle
Ich sage ja nicht, und habs auch in den letzten acht Jahren mit Sicherheit nie getan, dass Itanium ein glorreiches überall finanziell erfolgreiches Produkt ist und vielleicht waren die ersten zehn Jahre der Entwicklung viel zu viel ausgegebenes Geld. Aber dieses Geld ist eh weg. Niemand bekommt es zurück, wenn er jetzt die Weiterentwicklung des mittlerweile marktfähigen Produktes beendet. Und HP hat gerade erst vor einem halben Jahr den Verkauf von PA-RISC-HPC-Rechnern gestoppt um sich in dem Bereich auf Itanium festzulegen, da wird HP kaum plötzlich von Itanium auf x86 für HPC umschwenken, nur weil andere das tun. Colfax baut jetzt Tesla-Cluster als HPC, aber irgendwie hat CUDA deutlich weniger Softwarebasis als IA-64.
HP hat PA-RISC-HPC zugunsten Itanium eingestellt, PA-RISC-Server werden aber noch auf Jahre weiterverkauft - das zeigt doch nun mal deutlich, dass euer Datenbankserverargument keine wirksames ist. Itanium hat pro Integerleistung die meiste FP-Leistung (oder pro FP-Leistung die geringste Integerleistung) von allen General-Purpose-Architekturen, ich finds nicht unlogisch, dass man sowas nicht in Datenbankservern versauern lässt.
Das Problem, das meisten Leute mit Itanium haben, ist, dass sie ihn immernoch allein an dem messen, was er vor 15 Jahren mal sein sollte - übrig geblieben ist ein General-Purpose-HPC-Prozessor. Hätte man vor fünfzehn Jahren gewusst, dass die anderen Architekturen ihre Zukunftsaussichten dermaßen gut ändern konnten (damit hat auch Multicore-Design etwas zu tun), was ja der Grund ist, warum Itanium im Vergleich die anderen nicht extrem überholt - nicht weil Itanium nicht so gut wäre, wie erwartet worden war, sondern weil alle anderen nicht so schlecht geworden sind, wie erwartet worden war, hätte man also gewusst, dass weder RISC noch x86 für Desktops und Server schlechter geeignet sein würden, als Itanium, hätte man sicherlich die Entwicklung eingestellt - dafür ist es jetzt aber nunmal zu spät. Der EPIC-Prozessor ist marktfertig entwickelt und die Investitionskosten der 90er kann man sich nicht durch Zauberei irgendwie zurückholen, indem man meint jetzt heute Itanium einzustellen. Wichtig für die Itaniumzukunft ist nicht, wie hoch die nicht rückholbaren Kosten der Vergangenheit waren, sondern ob die Invetsitionskosten der Zukunft durch die Verkaufe getragen werden können.
Sind Nvidia-Tesla-Cluster, mit denen Colfax seine Itanium-Cluster ersetzt hat, eine Gefahr für Itanium? Vermutlich ja, genauso wie für jeden anderen General-Purpose-HPC-Prozessor. Aber gegen Itanium wird zehn Jahre nach seiner Markteinführung immernoch ins Feld geführt, dass der Befehlssatz zu neu und damit verfügbare Software zu wenig sei - wo ist denn die CUDA-Softwarebasis?
Und mich würde auch mal interessieren, wie viele der ach so tollen x86-Cluster aus Boards mit mehr als zwei Sockeln pro Board bestehen. Da gehts weder um Leistung pro Watt, noch um Green IT, sondern um möglichst billige Rechner, was man leicht grün kaschieren kann, weil der Itanium pro Prozesssor mehr Watt verbraucht, als als ein einzelner Xeon; ob er bei der spezifischen Anwendung dann vielleicht auch deutlich mehr leisten würde, ist dabei egal. Google benutzt seit Jahren keine Serverfestplatten mehr, sondern 7200 U/min SATA-Platten, weil die bei gleicher Leistung, wenn man bspw. zwanzig Desktop-Platten statt zehn 15k-Serverplatten zusammenschaltet, billiger sind - aber die verbrauchen dabei mehr Strom, als die gleiche Leistung mit 15k-Serverplatten. Genauso sehe ich das mit x86 in Großrechnern.
Zuletzt bearbeitet: