News Datacenter-Verstärkung: AMD kauft Pensando für 1,9 Milliarden US-Dollar

ETI1120 schrieb:
Intel hat alle Anbieter, die im letzten Jahrtausend die Rechenzentren dominiert haben, verdrängt.
Richtig, sie haben fast alle verdrängt oder in Nischen gedrückt. Den Grundstein dafür hat aber Intel nicht selbst gelegt, denn die hätten damals im Serverbereich, allgemein lieber eine andere Architektur im "professionellen" Bereich gesehen:
ETI1120 schrieb:
Es hat sicher geholfen dass sich HP durch den Fehlschlag Itanium selbst ausgeschaltet hat.
Du weißt aber schon, dass Intel an der Entwicklung des Itanium beteiligt war und die Prozessoren entwickelt hat, die HP dann kaufte?

Es gab sogar eine Zeit, in der man Itaniums sammt Boards und Co frei kaufen konnte, weil Intel die Architektur in Workstations und Servern sehen wollte, während im Consumer-Beriech noch einige Zeit die x86 mit 32-Bit vorherrschend sein sollte und vielleicht mal durch Itanium abgelöst werden sollte, aber nur vielleicht.

Und Intel hatte sowohl im letzten Jahrtausend als auch im Anfang dieses Jahrtausends mit x86 keine so wirkliche Rolle im Serverbereich gespielt, denn das kam er.
ETI1120 schrieb:
Die Partnerschaft mit Microsoft hat Intel geholfen. Aber die Leistung der XEON-CPUs war die Vorraussetzung dass es überhaupt möglich war.
Oh, die Partnerschaft Microsoft und Intel hat Intel in einigen Bereichen geholfen, aber der Siegeszug von Xeon-Prozessoren im Servermarkt ist in dem Fall nicht auf das Zweigestirn Intel und Microsoft zu führen, sondern auf einen Konkurrenten von Intel im Consumerbereich und der nennt sich AMD. Erst mit amd64/x86_64/x64 war überhaupt der Grundstein geschaffen, dass die Xeons ihren Siegeszug antreten konnten.

Als AMD ihre Opteron auf x86-Basis zusammen mit der 64-Bit-Erweiterung eingeführt hat, konnte AMD sowohl Intel als auch Sun sowie IBM quasi auf breiter Front angreifen und hat das auch getan.

Auf dem "billig" Servermarkt war Intel durchaus mit ihren damaligen Xeons dominat und AMD konnte da mit Athlon-MP nicht wirklich eindringen. In dem wirklich relevanten Servermarkt tummelten sich IBM, Sun und Intel mit ihren 64-Bit-Architekturen und Intel hatte mit Itanium einen "schweren" Stand. AMD hat mit x64 dann quasi zwei Fliegen mit einer Klappe geschlagen. Man konnte durch die Leistung in den 32-Bit-Servermarkt einsteigen und in den 64-Bit-Markt ebenso und das Sahnehäubchen war, dass die ganze x86-Software nun auch in den "professionellen"-Servermarkt mit einziehen konnte.

AMD bot damals mit den Opteron vergleichweise viel Leistung für wenig Geld und brachte die wichtige 64Bit-Fähigkeit mit. AMD hat damit angefangen nicht nur Intel im "kleinen" Servermarkt anzugreifen (Xeons), sondern wilderte auch im großen Servermarkt (Itanium).

Der Siegeszug für x86 im Servermarkt hat mit AMD64 angefangen und die Dominanz im Servermarkt, die Intel heute hat, began mit dem Xeon auf Core Basis, wobei der sich doch gut mit den Opterons geschlagen hat lange Zeit und auch im Servmarkt kam Intels-Siegeszug eigentlich erst final zu stande, als AMD sich mit Bulldozer ein eigenes Bein gestellt hat.

Die Vorraussetzung des Siegeszuges von Intel im Servermarkt war nicht die Leistung der Xeon-Prozessoren, sondern dass AMD Intel mit x64 ab 2003 wirklich auf allen Gebieten angegriffen hat und dabei gleich IBM, Sun und Co mit. Und der Grund dafür? Softwarekompatiblität und dass alte Software auch entsprechend schnell ausgeführt wurde!

Damals war eine andere Zeit, es wurde noch zu Teilen weit näher an der Hardware entwickelt als heute. Die Compiler waren noch nicht so ausgereift wie heute usw. Und die Änderung von einer 32-Bit-Serverstruktur zu einer 64-Bit bedeutet für viele Firmen damals, dass sie entweder Software teuer neuprogramieren mussten oder man teilweise Doppelstrukturen aufbauen musste oder - wie bei Itanium - die Ausführung sehr langsam war. AMD hat damals wirklich für einiges an Wirbel gesorgt im Servermarkt.
 
  • Gefällt mir
Reaktionen: TechFA und Unnu
DevPandi schrieb:
Richtig, sie haben fast alle verdrängt oder in Nischen gedrückt. Den Grundstein dafür hat aber Intel nicht selbst gelegt, denn die hätten damals im Serverbereich, allgemein lieber eine andere Architektur im "professionellen" Bereich gesehen:
Aber das hatte keine technischen Gründe.
DevPandi schrieb:
Du weißt aber schon, dass Intel an der Entwicklung des Itanium beteiligt war und die Prozessoren entwickelt hat, die HP dann kaufte?
Auf was ich raus wollte. Itanium basierte auf einer gemeinsamen Entwicklung von HP und Intel, die von Intel fortgeführt wurde. Für Itanium hat HP die sehr erfolgreiche HP Precision Architecture auslaufen lassen.

Itanium ist in dem Moment gescheitert als klar war, dass Itanium HP Precision Architecture, IBM Power und Sun Sparc nicht schlägt. Also schon kurz nach dem Release.

Die tatsächliche Performance war sehr erschreckend schlecht für eine Architektur, die alles was es gab in den Boden stampfen sollte. Folgende Grafik bei Wikipedia zeigt das Platzen der Hypeblase sehr gut:
1649151999033.png

Branchenkenner hat die bescheidene Performance von Itanium nicht überrascht. Die vielen Verschiebungen hatten dies angekündigt.

Selbst wenn AMD nicht mit SledgeHammer gekommen wäre, hätte Intel früher oder später X86 auf 64 bit erweitern müssen. AMD hat Intel diese Entscheidung quasi abgenommen.*) Intel hat IMHO Itanium spätestens 2007 verloren gegeben. Aber HP wollte das tote Pferd weiter reiten.

Noch eine Anmerkung zu "billig Server":
Es war seit den 90igern absehbar, dass "Wintel" die Unix-Rechner immer weiter verdrängen wird.
Fast alle Anbieter haben die Chance ignoriert, die Ihnen Linux geboten hat. So haben sie nicht nur ihre eigene CPU-Architektur, sondern auch ihr eigenes Unix gepflegt. Für die Softwareanbieter wurde es immer unrentabler für diese Unixsysteme zu entwickeln. Und somit sind viele Softwarepaketen und damit auch Anwendungsfälle verschwunden. Eigentlich war es das Problem, dass teure Server nur in wenige Nischen ihre Daseinsberechtigung behielten. Die Situation IBM etc. mit 64 bit und X86 ohne 64 bit wäre der Rettungsanker für IBM etc. gewesen. Der Umsatz mit X86 im Servermarkt war auch ohne 64-bit schon sehr groß. Die ganzen kleinen Unternehmen deren IT stetig wuchs kamen gar nicht auf die Idee ihre Server mit Unix zu betreiben.

*) Die Ironie an der Geschichte ist, dass das Herrumeiern von Intel AMD die Chance eröffnete, die eigene 64-Bit-Erweiterung zu etablieren. Microsoft hat sich auf AMD-64 festgelegt und die Unterstützung einer zweiten 64-bit-Erweiterung abgelehnt. Deshalb Intel musste AMD-64 durch einen Patenttausch lizenzieren. Und so wurde AMD64 zu X86-64.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA und JohnVescoya
DevPandi schrieb:
Erst mit amd64/x86_64/x64 war überhaupt der Grundstein geschaffen, dass die Xeons ihren Siegeszug antreten konnten.
"Wenn Du das Feuer siehst ist das Mahl längst bereitet"

Schon die Pentium Pro waren ein Türöffner wegen des Preis/Leistungsverhältnis. Xenon und 64 Bit wurden erst gebraucht als es daran ging die großen Hobel (tatsächlich, schon an einem 4fach Server konnte man sich einen Bruch heben) zu bauen.
 
Endlich mal wieder ein Feld, in dem ich mich sowas von gar nicht auskenne.

Kann ich was lernen:
Okay, das sind jetzt DPUs, die diverse Services der CPU abnehmen.
Welche denn jetzt genau?
FW haben ihre eigenen Chips, Router etc. ebenso. Krypto machen beide sowieso schon, also welche Services genau laufen auf diesen Karten? Und warum?
Und wie klinkt man die in die vorhandene Infrastruktur rein?
Merci 🙏
 
Unnu schrieb:
Endlich mal wieder ein Feld, in dem ich mich sowas von gar nicht auskenne.
Da bist Du sicher nicht alleine, :).

Ich hatte schon vor einiger Zeit Mal was von den Nvidia DPUs gelesen und verstanden, dass die DPUs die CPUs vom Managen des Datenverkehr entlasten. Aber die Infrastruktur in den Rechenzentren wird immer komplexer und ich denke, verstehen kann man es nur, wenn man mit dieser Infrastruktur und ihren Konzepten tatsächlich arbeitet. Für Hobbisten wie mir bleibt nur eine Ahnung zu bekommen. Im Sinne, dass eine Ahnung der Schatten des wirklichen Verstehens ist.

Vorab: DPUs sind für Rechenzentren mit sehr vielen Servern auf denen vor allem VMs betrieben werden. DPUs ermöglichen es eine erheblich flexiblere Netzwerkstruktur umzusetzen.

Unnu schrieb:
Kann ich was lernen:
Okay, das sind jetzt DPUs, die diverse Services der CPU abnehmen.
Welche denn jetzt genau?
So wie ich es verstehe übernehmen die DPUs alle Aufgaben, die Kommunikation bzw. Datentransfer im Rechenzentrum betreffen. CPUs und GPUs müssen sich nur noch um die jeweiligen Computing-Jobs kümmern. Sie werden über die DPUs in die Infrastruktur eingebunden. Man kann aber auch Storage über DPUs in das Netzwerk einbinden. Von der Infrastruktur aus betrachtet sind CPUs und GPUs auch nur Devices wie Storage.

Anders formuliert: Durch die neue Architektur im Rechenzentrum werden Computing und Infrastruktur getrennt. In der klassischen Rechenzentrums-Architektur wird beides durch die CPUs geleistet. Somit steht die gesamte CPU-Leistung für die Applikationen zur Verfügung und die CPU auf der die VM läuft muss nichts über das Netzwerk und Storage-Struktur wissen. Die CPU kommuniziert nur mit der DPU.

Zwei Folien die ich bei Serve The Home gefunden habe, fassen den Sachverhalt ganz gut zusammen:
1649200325326.png


Diese Grafik ist von Serve The Home erstellt.

1649200440580.png


Diese Folie ist von Fungible, dem anderen potentiellen Übernahmekandidaten. Fungible setzt auf MIPS und wie ich verstehe ist Pesando erheblich stärker in der Software.

Als excellenten Einstieg sehe ich den Artikel von Serve the Home zur Pesando-Übernahme. Der Artikel ist die Zusammenfassung des Videos. Im Artikel sind außerdem verlinkt:
Ich finde es ist alles sehr gut erklärt. Aber ich muss gestehen mir fehlt der Background, um es wirklich zu verstehen.

Vorreiter in dieser neuen Architektur war AWS mit Nitro. AWS erklärt, dass sie mit Nitro erheblich besser skalieren als früher. Das Einbinden neuer Instanzen ist erheblich einfacher und geht viel schneller.

Pesando wird des öfteren als Firma beschrieben, die die Architektur und Funktionen von Nitro für die anderen Cloudanbieter oder großen Rechenzentren verfügbar macht. Die DPU-Hardware ist nur ein Teil des Angebots von Pesando. Pesando hat 330 Mitarbeiter in Kalifornien und in Indien. 2/3 Der Mitarbeiter entwickeln Software.
 
Zurück
Oben