News Top500 November 2025: Deutschland hat den ersten Exascale-Computer Europas

Bright0001 schrieb:
Ich dachte da eher an die 5090 mit ~104 TFLOPS (in FP32). :schluck:
FP32, du sagst es selbst. :) Aber joa, alte Supercomputer sind langsam im Vergleich zu neuen KI-Beschleunigern, wäre auch blöd, wenn nicht. :D

@stefan92x Ich dachte er beziehe sich auf Consumer-Geräte. :)
 
Kaufmannsladen schrieb:
pielt schon eher oben mit
Bis das dann 2028 voll dabei ist dürfte die Liste wieder anders aussehen.
 
gaym0r schrieb:
FP32, du sagst es selbst. :)
Aber wo steht denn, dass die Liste mit FP64 geführt wird? Ernsthaft gefragt, denn ich hab dazu nichts gefunden oder es entsprechend überlesen. :P
 
In den FAQs da steht auch drin welches Mathemstische Verfahren du nutzen musst. Also die explizite Matrixmultiplikation und nicht ein Näherungsverfahren...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gaym0r und Kadett_Pirx
supertramp schrieb:
Und wie viel Prozent davon ist mit EU oder Deutscher Technologie realisiert worden?
Kommt drauf an, wieviel Anteil man kritische Komponenten aus Deutschland bei der Chipherstellung zuschreibt.

Ohne Entwickler aus den USA, keine Chips. Ohne Fabriken aus Taiwan, keine Chips. Ohne Komponenten aus Deutschland, keine Chips. Ohne Rohstoffe von irgendwoher. Keine Chips.
 
  • Gefällt mir
Reaktionen: Kaufmannsladen
Skysnake schrieb:
Ja, aber das Ding soll jetzt einfach laufen. Die Ergebnisse sind absoluter Schrott und werden Schrott bleiben. Und je nachdem muss man wegen der zu hohen Leistungsaufnahme schauen ob das Ding überhaupt so laufen kann oder was man alles extra bedenken/machen muss wie bei kaltem Wetter laufen lassen usw usf.

Auf den Stress hat keiner bock zumal Intel als Prime Contractor da auch massiv mitarbeiten müsste um nochmals nen Lauf zu machen und jetzt überlege dir mal woran Intel aktuell kein Interesse hat. Richtig Geld ausgeben. Im Zweifel gibt es die Leute gar nicht mehr bei denen und HPE wird auch keine Lust drauf haben das Desaster nochmals in die Medien zu heben.

Schau dir nu4 mal BlueWaters an. Das war einer der schnellsten Rechner der Welt zu seiner Zeit der mit AMD gebaut wurde nachdem IBM den Auftrag zurückgegeben hatte weil Sies nicht hinbekommen haben. Da gab es gar keinen Eintrag in der Liste als das unvorstellbarwar keinen zu machen. Das Thema wollte aber einfach jeder nur noch erledigt haben und die Effizienz vs Plan war vermutlich noch schlechter als bei Aurora.


Falsch.

Was nicht mit macht sind ein Großteil der Cloud Anbieter und die ganzen AI Firmen sowie China und eben Organisationen wie die CIA in den USA oder die Atomeneegiebehörde in Frankreich die auch Kernwaffen usw in Frankreich macht.

VW, Skoda, BMW, Microsoft, nVidia, Intel und noch viele viele mehr würde ich jetzt nicht als staatliche Teilnehmer oder öffentliche Hand bezeichnen.


Ob das ein Marketinggag ist darüber kann man sich streiten. Ich würde ihm nicht gänzlich widersprechen. Man muss einen Lauf aber auch erstmal schaffen und AWS traut sich da in meinen Augen nicht was sicherlich nicht ganz unbegründet ist nach meiner Erfahrung mit denen.


Nein sind Sie nicht zwingend.


und bei einem Superxomputer geht es um mehr. Auch mehr als die Top500. Ne Stuntmaschine ist halt genau das.

Und wenn man ganz formal nach Gardner geht geht es rein über den Preis und glaub noch die grundsätzliche Auslegung etwas wie einen HPL laufen lassen zu können. Aber an sich real gehört da noch mehr dazu. Z.b. ein leistungsstarkes Storage system usw usf.


Falsch.

Oder was meinst du wo die Trainingsdatensets gespeichert werden?

oh man...


Oh man.... Daten statisch speichern brauch fast überhaupt keinen Strom und ist zudem sau billig. Tape Library sei dank...

Sie auch sonst man sieht du hast keine Ahnung.

Die bekannten AI Center brauchen so viel Saft weil die da Unmengen an HW reinkarren und die laufen lassen mit Jobs. Das wars.


Wobei die Frage ist ob ein AI Cluster das können muss. Du kannst im Zweifel viel völlig unabhängig laufen lassen. Da muss man schon aufpassen. Zumal FP64 dort inzwischen einfach egal ist. Sprich auf der HW läuft im Zweifel gar kein HPL selbst wenn man will.


Oh man....

Der Unterschied liegt im kompletten Design das im Zweifel dir gar nicht erlaubt einen HPL laufen zu lassen selbst wenn du willst oder du bekommst kack Werte raus sofern du überhaupt einen Lauf hinbekommst....

Ein HPL Lauf bei so großen Systemen ist nicht trivial. Das verkackst du gerne mal.




ja im realen ausführen und nicht auf dem Papier. In so nem AI Datencenter hast du im Zweifel zick Cluster stehen die gar nicht effizient an einem Problem rechnen können.


-_-

Gerade AI Systeme haben oft massig lokalen Speicher für die Trainingsdaten....

Das klassische HPC System hat gar keinen Storage im Knoten. So btw.



Naja, dann stelle bitte klar und sage von der Erde.

Es gibt auch Dinge die aus Deutschland kommen und aus massig vielen anderen Ländern.

Ich sage nur Deep Deeper Deepest Parastation MPI usw.

Ein Supercomputer ist mehr als seine Einzelteile.



Bei AI Netzen sind auf Datenträgern nur die Ausgangsdaten also die Rohdaten die jeweils aber nur 1x gelesen werden - eventuell einen Zwischenstand (extremst unwahrscheinlich) und das einzige was dann passiert ist nach Wochen oder Monaten Dauerrechnen das fertige Netz wieder auf Datenträger zu schreiben.

Man kann den Inhalt von Nodes von etwas grösseren Netzen (und grösser heisst immer noch winzig im Vergleich zu LLM) nicht auf Datenträgern halten und so verarbeiten - naja kann man prinzipiell also "swappen" aber die Zeit des gesamten Universums ist endlich auch das hat ein Ende - daher kann man das nur theoretisch :D

Das Lesen der Rohdaten und Schreiben des fertigen Netzes macht vielleicht 0,00...1% aus - dass es bei grossen Netzen extrem viele Daten sind ändert daran nichts, dass das komplett unbedeutend ist im Vergleich zur Rechenzeit denn die ist bei entsprechend grossen Netzen dann auch extrem hoch.

Auch bei "klassischen" Supercomputern z.b. klassischen Klimamodellrechnungen entstehen die Startdaten im Normalfall nicht aus der Luft oder per Zufall auch da werden Ausgangsdaten intial 1x gelesen - es sind halt nur weniger Daten.

Ist aber ansonsten kein wirklicher Unterschied.
 
Zuletzt bearbeitet:
Uzer1510 schrieb:
Bei AI Netzen sind auf Datenträgern nur die Ausgangsdaten also die Rohdaten die jeweils aber nur 1x gelesen werden - eventuell einen Zwischenstand (extremst unwahrscheinlich) und das einzige was dann passiert ist nach Wochen oder Monaten Dauerrechnen das fertige Netz wieder auf Datenträger zu schreiben.
Ähm nein.

Gerade bei den großen LLM trainings sind die Datensets viel zu groß. Du hast da ziemlich viel streaming über sie gesamte Laufzeit zudem werden Zwischenergebnisse geschrieben usw. Nicht ohne Grund sind die Storagesysteme verdammt performant für AI Systeme. Streaming ist aber wichtiger als small io auf das bei HPC viel Wert gelegt wird.

Uzer1510 schrieb:
Das Lesen der Rohdaten und Schreiben des fertigen Netzes macht vielleicht 0,00...1% aus - dass es bei grossen Netzen extrem viele Daten sind ändert daran nichts, dass das komplett unbedeutend ist im Vergleich zur Rechenzeit denn die ist bei entsprechend grossen Netzen dann auch extrem hoch.

Man merkt das du keinerlei echte brührungspunkte damit hast. So einfacg ist auch die AI Welt nicht...


Uzer1510 schrieb:
Auch bei "klassischen" Supercomputern z.b. klassischen Klimamodellrechnungen entstehen die Startdaten im Normalfall nicht aus der Luft oder per Zufall auch da werden Ausgangsdaten intial 1x gelesen - es sind halt nur weniger Daten.
Ähm nein...

Das wird nicht nur einmal gelesen dann viel gerechnet und am Ende steht ne Zahl da.

Du hast vielleicht Vorstellungen...

Ich klinke mich da aber jetzt aus. Mir ist meine Zeit zu schade so nen Nonsens weiter zu kommentieren.
 
Häh 1x laden heisst nicht 1 x alles gleichzeitig laden.

Natülrich werden die Daten nacheinander geladen weil die Nodes im Kern auf sequentielle Verarbeitung aufbauen - entscheidend ist sie werden nur 1x geladen.

Sobald man Nodes regelmässig auslagern und einlesen müsste hat man eine absolut unterirdische Performance


Das Gerede die Datsetes seien zu gross zeigt doch eher dass Du glauibe ich nichts verstehst - man kann auch mit 50 Petabyte ein AI Netz von 100 Nodes trainieren man hat halt nur hohe Verluste dass Gelerntes bei der Verrechnung der Nodes verschwindet.

Ram bestimmt die Anzahl der Nodes und das die Qualität / Tiefe der "Erinnerung" die Menge der Trainigsdaten vor allem die Gewichtung.
 
Zuletzt bearbeitet:
Mir ist jetzt erst gerade die extreme Effizienz von JUPITER aufgefallen, verglichen mit Aurora.NEXT;

SupercomputerRmax (PFlop/s)Rpeak (PFlop/s)Effizienz (%)
Jupiter1,000.001,226.2881,54 %
Aurora.NEXT1.012,001.980,0151,11 %

Jupiter's reelle Effizienz ist ja tatsächlich so hoch, daß obwohl das System eine wesentlich geringe Leistung (Rpeak) als Aurora aufweisen kann, Jupiter trotzdem auf praktisch die selbe Leistung (Rmax) wie Aurora kommt, trotz im Grunde wesentlich "schwächerer" Hardware sozusagen.

Obendrein schafft das Jupiter sogar bei weniger als der Hälfte des Stromverbrauch von Aurora!
Das wäre ja ein Effizienz-Faktor von 3–4× bei Hardware, im Vergleich zum Stromverbrauch (15,7MW vs 38,7MW).

Ist der Unterschied wirklich so dermaßen extrem?! Und wenn ja, wieso ist Jupiter so viel effizienter?
 
TechFA schrieb:
Mir ist jetzt erst gerade die extreme Effizienz von JUPITER aufgefallen, verglichen mit Aurora.NEXT;
Jupiter ist gut, aber am oberen Ende der normalen Streuung, die meisten Systeme liegen bei 0,7 bis 0,8 Rmax/Rpeak.

Aurora ist der krasse Ausreißer nach unten.
TechFA schrieb:
Obendrein schafft das Jupiter sogar bei weniger als der Hälfte des Stromverbrauch von Aurora!
Jupiter ist nicht zufällig der effizienteste der richtig fetten Cluster. Das Spielzeug, das immer die Green500 anführt ignoriere ich mal
TechFA schrieb:
Ist der Unterschied wirklich so dermaßen extrem?!
Ja
TechFA schrieb:
Und wenn ja, wieso ist Jupiter so viel effizienter?
Falsche Frage. Der modernste Exaflop-Rechber ist der effizienteste, ohne sich besonders weit von Frontier und El Capitan abzuheben. Richtige Frage: Wieso ist Intel so viel schlechter als alle anderen?

Uzer1510 schrieb:
Ah ne das war der alte Aurora glaub den ich gefunden hatte
Das Projekt hat mehrere Umbenennungen und Umplanungen erlebt. Der ursprüngliche Aurora ist nie gebaut worden, der heutige Aurora lief mal unter dem Namen Aurora.next, um das neue Konzept deutlich zu machen.

Aber es hat nichts damit zu tun, wie alt oder neu das System ist, oder welche CPUs verbaut werden. Die hier verwendete Metrik Rmax/Rpeak gibt einfach an, wie gut die vorhandene Hardware ausgenutzt wird.

Aurora ist ein furchtbar schlechtes System, aber man findet Systeme mit Intel, Nvidia und AMD-CPUs mit ähnlichen guten Werten.

Nur Aurora hat allerdings Intel-GPUs....
 
  • Gefällt mir
Reaktionen: TechFA
@Uzer1510 Ja, der aktuelle ist Aurora.Next (intern als Aurora21 oder kurz A21 betitelt), im Gegensatz zum alten originalen Aurora von 2013, projektiert in 2015 und geplant für 2018 – Der kam nie, war geplant mit Xeon Phi-Beschleunigern und lief Anfangs als eben bloß "Aurora". Wird seitdem retroaktiv als A18 betitelt.

Zur Unterscheidung gibt's halt deswegen A18 und A21, weil wohl das Argonne National Laboratory bis 2018 und bis zur letztendlichen Fertigstellung des aktuellen Aurora (A21) in 2024–2025 einiges an Software-Projekten am Laufen hatte, die entsprechend umgeschrieben wurden, um dann final auf A21 mit Intel's OneAPI laufen zu können.

Die Unzahl an Artikeln über Argonne und Aurora, insbesondere bei HPC-Wire und TheNextPlatform, haben in der Übergangszeit (2018–2024) des Öfteren diese Unterscheidungsmerkmale von Argonne/Intel übernommen.

insideHPC.com: Another Intel 7nm Chip Delay – What Does it Mean for Aurora Exascale?
insideHPC.com schrieb:
More than two years ago, Intel announced it had scrapped plans to build a pre-exascale system called Aurora (A18) for Argonne – a system scheduled for delivery in 2018 that was to have incorporated Cray’s “Shasta” supercomputing architecture and have peak performance of 180 petaflops.

Instead, Intel, as prime contractor, moved on to a new version of Aurora (A21), with full exascale (a billion billion operations per second) compute power combining Intel 10nm CPUs and “Ponte Vecchio” 7nm GPUs, along with the Cray Shasta architecture for 2021, a centerpiece of the U.S. exascale strategy.

TheNextPlatform: Argonne Aurora A21: All’s Well That Ends Better

Lies den Artikel … Der NextPlatform-Artikel enthält 11× (Aurora) A21 und 4× (Aurora) A18.

Wie man an der Artikel-Überschrift sieht, habe ich mir diese Bezeichnungen jedenfalls nicht einfach selbst ausgedacht, sondern scheint wohl Argonne's internes Unterscheidungsmerkmal bei Projekten gewesen zu sein.

Ist mir auch irgendwo egal, wo diese Bezeichnungen herkommen, ich verwende sie bloß, richtig.

Ganz ehrlich, jedes Mal wenn ich diese (inoffiziellen weil internen) Bezeichnungen verwende (A18/A21), ist Irgendjemand der Meinung, das wäre von mir erfunden oder nicht existent — Ich werde mir für den Beitrag jetzt ein Lesezeichen setzen, um dem Nächsten mit diesem Nonsense diesen Beitrag um die Ohren zu haben! 😂
 
TechFA schrieb:
Ist der Unterschied wirklich so dermaßen extrem?! Und wenn ja, wieso ist Jupiter so viel effizienter?
Ja der Unterschied ist so groß und Intel hat halt Schrott geliefert weil Sie es einfach nicht hinbekommen haben.
 
  • Gefällt mir
Reaktionen: TechFA
@Skysnake @stefan92x Ja, aber das Verhältnis ist so extrem! Wahnsinn …
Kann man damit sagen, daß die Ineffizienz vor allem bei der Intel-GPU vorliegt?
Oder gibt sich das nicht viel zwischen CPU (Sapphire Rapids) und GPU (Ponte Vecchio)?

stefan92x schrieb:
Mich würde ja immer noch interessieren, was Aurora wirklich schaffen würde, wenn man heute nochmal benchmarken würde.
Mich erst! Hatte ich die ganzen letzten HPC-News schon gefragt, Antworten gibt's keine …

Weil eigentlich fehlen noch etwa 1.000 Compute-Blades beim aktuellen Aurora, die zwischen semi-offizieller Fertigstellung (Vollständige Lieferung) in August–September 2024 und letztendlicher, offizieller Inbetriebnahme Mitte 2025 (Übergabe) noch installiert werden sollten – Sind die jetzt endlich installiert? Wenn nein warum nicht?

Und wenn ja und installiert, warum wird dann kein neuer Benchmark-Run gefahren?
Es kann mir doch Niemand erzählen, daß Intel nicht alles würde daran setzen, die verbliebenen Prozente zur einst fest versprochenen 2 ExaFLOP-Marke zu knacken, wenn sie schon bei 1.980,01 PetaFLOP sind!

Weil Zitat Computerbase im Mai 2024;
Volker schrieb:
Intels Aurora läuft weiterhin nur mit unter 90 Prozent der Sollkapazität. Zum 1. Platz in der Disziplin AI reicht es trotzdem. So schnell wie vielerorts gedacht wird das System aber auch fertig nicht, wie Betreiber Argonne Labs erklärte: Intels Werbung mit „2 ExaFLOPs Rpeak“ war unglücklich. HPE ist hingegen in Feierlaune.
[…]
Für Frontier auf Basis von AMD-Hardware an der Spitze hat es aber auch im zweiten Anlauf nicht gereicht. Das System ist zwar vollständig aufgebaut und es gibt keine echten Probleme, es wird aber noch immer optimiert. Für Benchmark-Durchläufe standen so nur etwas über 9.200 respektive 9.500 Blades der insgesamt über 10.600 Blades im Supercomputer zur Verfügung, was 87 respektive 89 Prozent der Gesamtleistung entspricht. Damit holt Intel/HPE/Argonne die Krone letztlich nicht, selbst beim Peak-Wert bleibt das Produkt noch unter den beworbenen 2 ExaFLOPs.

Also stell sich doch die berechtigte Frage, was ist mit dem Rest des Systems?
Warum gibt es kein Testlauf mit allen fertig installierten 10.600 Blades/Nodes?
Warum ist der letzte Stand noch immer der erste, mit größtenteils installierter Hardware im Mai 2024?
Warum wird da nichts gemacht, wenn praktisch alle anderen Systeme immer wieder ein bisschen an Leistung zulegen und neuerliche Leistungstests fahren?

Weil Intel hat nicht nur mit viel Ach und Krach gerade so die 1 ExaFLOP-Marke bei Rmax gerissen, selbst von den einst prognostizierten 1.143,34 PetaFLOPS Rmax und vor allem den 2.069,19 PetaFLOPS Rpeak ist Aurora noch ein ganzes Stück entfernt. Es fehlen ~89,18 PetaFLOP Leistung!

Der AMD-basierte Frontier hat sich ja schließlich auch immer wieder verbessert;
  1. Von Anfangs 1.102,00 PF Rmax / 1,685.65 PF Rpeak
  2. … auf 1,194.00 PF/1,679.82 PF (8.699.904 Nodes)
  3. … über 1.206,00 PF / 1.714,81 PF (8.699.904 Nodes)
  4. … auf nun 1.353,00 PF / 2.055,72 PF bei 9.066.176 Nodes.
Hat Intel das Thema "Aurora" komplett abgeschlossen und will gar nicht die 2 ExaFLOP-Marke knacken?
Oder hat Intel Aurora insgesamt mitsamt Ponte Vecchio schnellsmöglich ad Acta gelegt und will davon nichts mehr wissen, weil sie die 2 ExaFLOP im Peak (aus technischen/organisatorischen Gründen) eh nicht erreichen können?

Technische Defekte, teilweise Systemausfälle, Software-Probleme? Was ist es und woran hapert es?
 
TechFA schrieb:
Kann man damit sagen, daß die Ineffizienz vor allem bei der Intel-GPU vorliegt?
Würde ich zumindest sehr stark vermuten. Ponte Vecchio in Aurora liefert pro Stück viel weniger Leistung als generell versprochen wurde, so als ob die den Takt und/oder Verbrauch nicht stabil in den Griff bekommen haben.
TechFA schrieb:
Es kann mir doch Niemand erzählen, daß Intel nicht alles würde daran setzen, die verbliebenen Prozente zur einst fest versprochenen 2 ExaFLOP-Marke zu knacken, wenn sie schon bei 1.980,01 PetaFLOP sind!
Doch. Intel hat den HPC-Markt aktuell offiziell aufgegeben und mit Aurora so viel Geld verbrannt, dass kein Cent unnötiger Ausgabe mehr zu rechtfertigen ist.
TechFA schrieb:
Warum wird da nichts gemacht, wenn praktisch alle anderen Systeme immer wieder ein bisschen an Leistung zulegen und neuerliche Leistungstests fahren?
Weil die anderen stolz sein können, auf das was sie erreichen. Intel kann sich nur schämen. Aber man sollte auch nicht vergessen: Intel ist nicht der Betreiber, sondern Argonne. Intel kann nicht einfach so von sich aus solche Benchmarks da fahren.
TechFA schrieb:
Hat Intel das Thema "Aurora" komplett abgeschlossen und will gar nicht die 2 ExaFLOP-Marke knacken?
Man bekommt den Eindruck, dass sowohl Argonne als auch Intel am Liebsten den Mantel des Schweigens über Aurora breiten wollen.
TechFA schrieb:
Oder hat Intel Aurora insgesamt mitsamt Ponte Vecchio schnellsmöglich ad Acta gelegt
Ja. Ponte Vecchio wurde schnell abgekündigt. Rialto Bridge wurde gestrichen. Falcon Shores wurde gestrichen. Jaguar Shores existiert anscheinend noch, aber das hat ja auf absehbare Zeit keine Relevanz.
TechFA schrieb:
Technische Defekte, teilweise Systemausfälle, Software-Probleme?
Ja. Alles.
TechFA schrieb:
Was ist es und woran hapert es?
Aurora versammelt halt in einem einzigen System alle Fehler und Probleme, die Intel in einem Jahrzehnt gemacht hat.
 
  • Gefällt mir
Reaktionen: TechFA und Freiheraus
TechFA schrieb:
Hat Intel das Thema "Aurora" komplett abgeschlossen und will gar nicht die 2 ExaFLOP-Marke knacken?
Ja haben Sie. Mit Aurora ist Intel als Prime Contractor aufgeschlagen und mit Aurora haben Sie auch die Buisnessparte eingestellt. Intel will kein Prime Contractor mehr sein weil Sue es voll verkackt haben. Die Leute wurden gegangen.

Und wie schon gesagt. Argone ist der Eigentümer. Die haben daran kein Interesse und Intel hat halt fortwährend gefailed. Warum da also noch mehr Zeit, Energie und Geld versenken?
 
  • Gefällt mir
Reaktionen: TechFA und stefan92x
stefan92x schrieb:
Aurora versammelt halt in einem einzigen System alle Fehler und Probleme, die Intel in einem Jahrzehnt gemacht hat.
Viel besser kann man es nicht auf den Punkt bringen als mit diesem Satz.
 
  • Gefällt mir
Reaktionen: TechFA
@stefan92x Tja, was soll man sagen … Für Intel langatmig und schmerzvoll, aber selbst als Zuschauer bekommst einen kalten Schauer bei dieser technischen Trauerfeier an prominenter Inkompetenz.

Aurora war wirklich eine kapitale Voll-Katastrophe mit Ansage über eine Dekade von 2015 bis 2025.

Es wäre wohl zumindest wirtschaftlich gesehen deutlich klüger gewesen, frühzeitig dem gesamten "Projekt Aurora" den Stecker zu ziehen und stattdessen schon um 2018 nach Einstellung von Xeon Phi die Wunden zu lecken, seitens Intel eine Stop-Loss-Order zu bringen und klugerweise finale Entscheidung zur weiteren Verlustvermeidung zu treffen … um dann notgedrungen der Konkurrenz (IBM, nVidia, AMD) das Feld zu überlassen.

Weil Stand 2018, dem einst ersten Liefertermin für den damaligen 1. Aurora, hatte man ja seitens Intel nicht nur schon gar nichts (mehr) für Aurora in der Hand, nachdem man im November des Vorjahres Ende 2017 Xeon Phi eingestellt hatte (was ja einst überhaupt erst die Grundlage für den ersten Aurora (A18) bilden sollte), auch müssen die Investitionen bis dahin für Intel doch sehr überschaubar gewesen sein …

Xeon Phi als Rehash von Larrabee wurde ja keinesfalls für Aurora selbst entwickelt, sondern war "bloß verfügbar", woraus dann Intel für Argonne ein kapitales Luftschloss gebastelt hat, ohne daß sich Intel überhaupt darüber im Klaren war, wie man das Ganze sollte eigentlich denn überhaupt bewerkstelligen.

Stattdessen hat Intel das selbe Aurora-Luftschloß gleich nochmal gebastelt!
Nur in größer, aber mit noch weniger Hardware oder Ahnung, wie ein fertiger Aurora aussehen soll …

Letztendlich hat sich Intel bei Aurora eigentlich nur Kopfschmerzen zugezogen, weil man wollte eben (vor allem der Selbstdarstellung wegen) auf biegen und brechen mit dem Kopf durch die Wand … hat sich aber stattdessen insgesamt nur blamiert, wurde trotz jahrelangen Verzögerungen von der Konkurrenz deklassiert, hat obendrein noch eine Vertragsstarfe kassiert und am Ende bloß Unsummen versenkt.

Wahnsinn was Intel über Umwege mit Sapphire Rapids und Ponte Vecchio in das "Projekt Aurora" in Unsummen an Geld versenkt hat. Dürfte sich insgesamt locker auf 4,5–5 Milliarden US-Dollar belaufen …

Alleine die Entwicklungskosten für SPR und PV mit all den langwierigen Validierungen und zig Masken, ist wohl der reinste Validierungs-Horror gewesen, nur um's direkt danach wieder einzustellen.
stefan92x schrieb:
Intel ist nicht der Betreiber, sondern Argonne. Intel kann nicht einfach so von sich aus solche Benchmarks da fahren.
Klar, kann natürlich sein, daß Argonne nach all dem von Intel einfach nix mehr hören will, nach dem Motto;
»Wenn was kaputt geht oder nicht funktioniert, wird telefoniert … Ansonsten bleibt uns vom Hals!«

Nach dem Trauerspiel von Intel wahrscheinlich auch gar nicht so unwahrscheinlich …
stefan92x schrieb:
Man bekommt den Eindruck, dass sowohl Argonne als auch Intel am Liebsten den Mantel des Schweigens über Aurora breiten wollen.
Ich denke, nach all dem Chaos über ein Jahrzehnt kann das Niemand dem Argonne wirklich verübeln.
Ergänzung ()

Skysnake schrieb:
Ja haben Sie. Mit Aurora ist Intel als Prime Contractor aufgeschlagen und mit Aurora haben Sie auch die Buisnessparte eingestellt. Intel will kein Prime Contractor mehr sein weil Sue es voll verkackt haben. Die Leute wurden gegangen.
Wie jetzt? Also die Unternehmenssparte als solches mit allem was HPC und Supercomputer betrifft komplett?
Gab es darüber irgendwelche öffentlichen Meldungen über die Einstellung von der Sparte?

Weil Intel hat doch mit Raja Koduri noch vor einer Weile verlauten lassen, man wolle schon ab 2027 ZettaFLOP-Supercomputer bauen, oder nicht? Und wofür hat Intel dann überhaupt noch Falcon Shores und Co?

ComputerBase: Intel-Supercomputer: Aurora soll 2 ExaFLOPS liefern, ZettaFLOPS schon ab 2027

Zugegeben, Koduri ist nicht mehr im Hause, aber ist das alles Ad acta gelegt worden? Nie mehr Intel-HPC?
 
Zuletzt bearbeitet:
TechFA schrieb:
Es wäre wohl zumindest wirtschaftlich gesehen deutlich klüger gewesen, frühzeitig dem gesamten "Projekt Aurora" den Stecker zu ziehen
Rückblickend ja. Damals, als größter Compute-Chiphersteller der Welt, freiwillig das Feld räumen? Ausgeschlossen.
TechFA schrieb:
Xeon Phi als Rehash von Larrabee wurde ja keinesfalls für Aurora selbst entwickelt, sondern war "bloß verfügbar", woraus dann Intel für Argonne ein kapitales Luftschloss gebastelt hat, ohne daß sich Intel überhaupt darüber im Klaren war, wie man das Ganze sollte eigentlich denn überhaupt bewerkstelligen.
War das wirklich so? Knights Landing wirkte nicht wie ein Rohrkrepierer auf mich. Ja, Intel war dabei, hinter die GPU-Beschleuniger zurück zu fallen, aber dennoch wirkte Aurora auf damaligen Stand für mich absolut machbar. Es war halt nur absehbar der einzig größere Auftrag dafür, wirtschaftlich war Xeon Phi eine Sackgasse.

Intel dachte damals offensichtlich, es sei sinnvoller, beim letzten verbliebenen Projekt einmal in den sauren Apfel der Vertragsstrafe zu beißen und das Thema HPC neu anzugehen. Angesichts der Ressourcen von Intel und der Konkurrenzsituation halte ich die damalige Entscheidung auch aus heutiger Sicht für absolut vertretbar.
TechFA schrieb:
Letztendlich hat sich Intel bei Aurora eigentlich nur Kopfschmerzen zugezogen, weil man wollte eben (vor allem der Selbstdarstellung wegen) auf biegen und brechen mit dem Kopf durch die Wand
Das war dann halt das Problem. Niemand bei Intel hat sich vorstellen können, wie sehr sie in den folgenden Jahren versagen würden.
TechFA schrieb:
Wahnsinn was Intel über Umwege mit Sapphire Rapids und Ponte Vecchio in das "Projekt Aurora" in Unsummen an Geld versenkt hat. Dürfte sich insgesamt locker auf 4,5–5 Milliarden US-Dollar belaufen …
Ich bin nicht sicher, ob man das so rechnen darf. SPR war ja generell der Mainstream-Xeon. Und auch Ponte Vecchio war ja als generelles Angebot gedacht, um in Konkurrenz zu Nvidia und AMD zu treten.

Vor allem letzteres war halt einfach schlecht und hat sich nicht verkauft, aber SPR lief ja grundsätzlich gut im Markt, nachdem die Entiwcklungsprobleme gelöst waren.
Ergänzung ()

TechFA schrieb:
Wie jetzt? Also die Unternehmenssparte als solches mit allem was HPC und Supercomputer betrifft komplett?
Gab es darüber irgendwelche öffentlichen Meldungen über die Einstellung von der Sparte?
Auch damals schon https://www.computerbase.de/news/pr...rerst-nicht-mehr-im-rampenlicht-stehen.78380/

Es geht auch nicht darum, dass Intel solche Projekte nicht beliefern will, sondern dass Intel nicht mehr als Generalunternehmer für sowas auftritt. Das überlässt man den Profis wie z.B. HPE.

Blöd nur, dass deren nächste Generation dann halt ohne Intel kommt: https://www.servethehome.com/hpe-la...inct-mi400-and-nvidia-vera-rubin-compute-arm/
 
Zuletzt bearbeitet:
Zurück
Oben