FP32, du sagst es selbst.Bright0001 schrieb:Ich dachte da eher an die 5090 mit ~104 TFLOPS (in FP32).![]()
@stefan92x Ich dachte er beziehe sich auf Consumer-Geräte.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
FP32, du sagst es selbst.Bright0001 schrieb:Ich dachte da eher an die 5090 mit ~104 TFLOPS (in FP32).![]()
Bis das dann 2028 voll dabei ist dürfte die Liste wieder anders aussehen.Kaufmannsladen schrieb:pielt schon eher oben mit
Aber wo steht denn, dass die Liste mit FP64 geführt wird? Ernsthaft gefragt, denn ich hab dazu nichts gefunden oder es entsprechend überlesen.gaym0r schrieb:FP32, du sagst es selbst.![]()
Kommt drauf an, wieviel Anteil man kritische Komponenten aus Deutschland bei der Chipherstellung zuschreibt.supertramp schrieb:Und wie viel Prozent davon ist mit EU oder Deutscher Technologie realisiert worden?
Skysnake schrieb:Ja, aber das Ding soll jetzt einfach laufen. Die Ergebnisse sind absoluter Schrott und werden Schrott bleiben. Und je nachdem muss man wegen der zu hohen Leistungsaufnahme schauen ob das Ding überhaupt so laufen kann oder was man alles extra bedenken/machen muss wie bei kaltem Wetter laufen lassen usw usf.
Auf den Stress hat keiner bock zumal Intel als Prime Contractor da auch massiv mitarbeiten müsste um nochmals nen Lauf zu machen und jetzt überlege dir mal woran Intel aktuell kein Interesse hat. Richtig Geld ausgeben. Im Zweifel gibt es die Leute gar nicht mehr bei denen und HPE wird auch keine Lust drauf haben das Desaster nochmals in die Medien zu heben.
Schau dir nu4 mal BlueWaters an. Das war einer der schnellsten Rechner der Welt zu seiner Zeit der mit AMD gebaut wurde nachdem IBM den Auftrag zurückgegeben hatte weil Sies nicht hinbekommen haben. Da gab es gar keinen Eintrag in der Liste als das unvorstellbarwar keinen zu machen. Das Thema wollte aber einfach jeder nur noch erledigt haben und die Effizienz vs Plan war vermutlich noch schlechter als bei Aurora.
Falsch.
Was nicht mit macht sind ein Großteil der Cloud Anbieter und die ganzen AI Firmen sowie China und eben Organisationen wie die CIA in den USA oder die Atomeneegiebehörde in Frankreich die auch Kernwaffen usw in Frankreich macht.
VW, Skoda, BMW, Microsoft, nVidia, Intel und noch viele viele mehr würde ich jetzt nicht als staatliche Teilnehmer oder öffentliche Hand bezeichnen.
Ob das ein Marketinggag ist darüber kann man sich streiten. Ich würde ihm nicht gänzlich widersprechen. Man muss einen Lauf aber auch erstmal schaffen und AWS traut sich da in meinen Augen nicht was sicherlich nicht ganz unbegründet ist nach meiner Erfahrung mit denen.
Nein sind Sie nicht zwingend.
und bei einem Superxomputer geht es um mehr. Auch mehr als die Top500. Ne Stuntmaschine ist halt genau das.
Und wenn man ganz formal nach Gardner geht geht es rein über den Preis und glaub noch die grundsätzliche Auslegung etwas wie einen HPL laufen lassen zu können. Aber an sich real gehört da noch mehr dazu. Z.b. ein leistungsstarkes Storage system usw usf.
Falsch.
Oder was meinst du wo die Trainingsdatensets gespeichert werden?
oh man...
Oh man.... Daten statisch speichern brauch fast überhaupt keinen Strom und ist zudem sau billig. Tape Library sei dank...
Sie auch sonst man sieht du hast keine Ahnung.
Die bekannten AI Center brauchen so viel Saft weil die da Unmengen an HW reinkarren und die laufen lassen mit Jobs. Das wars.
Wobei die Frage ist ob ein AI Cluster das können muss. Du kannst im Zweifel viel völlig unabhängig laufen lassen. Da muss man schon aufpassen. Zumal FP64 dort inzwischen einfach egal ist. Sprich auf der HW läuft im Zweifel gar kein HPL selbst wenn man will.
Oh man....
Der Unterschied liegt im kompletten Design das im Zweifel dir gar nicht erlaubt einen HPL laufen zu lassen selbst wenn du willst oder du bekommst kack Werte raus sofern du überhaupt einen Lauf hinbekommst....
Ein HPL Lauf bei so großen Systemen ist nicht trivial. Das verkackst du gerne mal.
ja im realen ausführen und nicht auf dem Papier. In so nem AI Datencenter hast du im Zweifel zick Cluster stehen die gar nicht effizient an einem Problem rechnen können.
-_-
Gerade AI Systeme haben oft massig lokalen Speicher für die Trainingsdaten....
Das klassische HPC System hat gar keinen Storage im Knoten. So btw.
Naja, dann stelle bitte klar und sage von der Erde.
Es gibt auch Dinge die aus Deutschland kommen und aus massig vielen anderen Ländern.
Ich sage nur Deep Deeper Deepest Parastation MPI usw.
Ein Supercomputer ist mehr als seine Einzelteile.
Ähm nein.Uzer1510 schrieb:Bei AI Netzen sind auf Datenträgern nur die Ausgangsdaten also die Rohdaten die jeweils aber nur 1x gelesen werden - eventuell einen Zwischenstand (extremst unwahrscheinlich) und das einzige was dann passiert ist nach Wochen oder Monaten Dauerrechnen das fertige Netz wieder auf Datenträger zu schreiben.
Uzer1510 schrieb:Das Lesen der Rohdaten und Schreiben des fertigen Netzes macht vielleicht 0,00...1% aus - dass es bei grossen Netzen extrem viele Daten sind ändert daran nichts, dass das komplett unbedeutend ist im Vergleich zur Rechenzeit denn die ist bei entsprechend grossen Netzen dann auch extrem hoch.
Ähm nein...Uzer1510 schrieb:Auch bei "klassischen" Supercomputern z.b. klassischen Klimamodellrechnungen entstehen die Startdaten im Normalfall nicht aus der Luft oder per Zufall auch da werden Ausgangsdaten intial 1x gelesen - es sind halt nur weniger Daten.
| Supercomputer | Rmax (PFlop/s) | Rpeak (PFlop/s) | Effizienz (%) |
|---|---|---|---|
| Jupiter | 1,000.00 | 1,226.28 | 81,54 % |
| Aurora.NEXT | 1.012,00 | 1.980,01 | 51,11 % |
Jupiter ist gut, aber am oberen Ende der normalen Streuung, die meisten Systeme liegen bei 0,7 bis 0,8 Rmax/Rpeak.TechFA schrieb:Mir ist jetzt erst gerade die extreme Effizienz von JUPITER aufgefallen, verglichen mit Aurora.NEXT;
Jupiter ist nicht zufällig der effizienteste der richtig fetten Cluster. Das Spielzeug, das immer die Green500 anführt ignoriere ich malTechFA schrieb:Obendrein schafft das Jupiter sogar bei weniger als der Hälfte des Stromverbrauch von Aurora!
JaTechFA schrieb:Ist der Unterschied wirklich so dermaßen extrem?!
Falsche Frage. Der modernste Exaflop-Rechber ist der effizienteste, ohne sich besonders weit von Frontier und El Capitan abzuheben. Richtige Frage: Wieso ist Intel so viel schlechter als alle anderen?TechFA schrieb:Und wenn ja, wieso ist Jupiter so viel effizienter?
Das Projekt hat mehrere Umbenennungen und Umplanungen erlebt. Der ursprüngliche Aurora ist nie gebaut worden, der heutige Aurora lief mal unter dem Namen Aurora.next, um das neue Konzept deutlich zu machen.Uzer1510 schrieb:Ah ne das war der alte Aurora glaub den ich gefunden hatte
insideHPC.com schrieb:More than two years ago, Intel announced it had scrapped plans to build a pre-exascale system called Aurora (A18) for Argonne – a system scheduled for delivery in 2018 that was to have incorporated Cray’s “Shasta” supercomputing architecture and have peak performance of 180 petaflops.
Instead, Intel, as prime contractor, moved on to a new version of Aurora (A21), with full exascale (a billion billion operations per second) compute power combining Intel 10nm CPUs and “Ponte Vecchio” 7nm GPUs, along with the Cray Shasta architecture for 2021, a centerpiece of the U.S. exascale strategy.
Ja der Unterschied ist so groß und Intel hat halt Schrott geliefert weil Sie es einfach nicht hinbekommen haben.TechFA schrieb:Ist der Unterschied wirklich so dermaßen extrem?! Und wenn ja, wieso ist Jupiter so viel effizienter?
Mich erst! Hatte ich die ganzen letzten HPC-News schon gefragt, Antworten gibt's keine …stefan92x schrieb:Mich würde ja immer noch interessieren, was Aurora wirklich schaffen würde, wenn man heute nochmal benchmarken würde.
Volker schrieb:Intels Aurora läuft weiterhin nur mit unter 90 Prozent der Sollkapazität. Zum 1. Platz in der Disziplin AI reicht es trotzdem. So schnell wie vielerorts gedacht wird das System aber auch fertig nicht, wie Betreiber Argonne Labs erklärte: Intels Werbung mit „2 ExaFLOPs Rpeak“ war unglücklich. HPE ist hingegen in Feierlaune.
[…]
Für Frontier auf Basis von AMD-Hardware an der Spitze hat es aber auch im zweiten Anlauf nicht gereicht. Das System ist zwar vollständig aufgebaut und es gibt keine echten Probleme, es wird aber noch immer optimiert. Für Benchmark-Durchläufe standen so nur etwas über 9.200 respektive 9.500 Blades der insgesamt über 10.600 Blades im Supercomputer zur Verfügung, was 87 respektive 89 Prozent der Gesamtleistung entspricht. Damit holt Intel/HPE/Argonne die Krone letztlich nicht, selbst beim Peak-Wert bleibt das Produkt noch unter den beworbenen 2 ExaFLOPs.
Würde ich zumindest sehr stark vermuten. Ponte Vecchio in Aurora liefert pro Stück viel weniger Leistung als generell versprochen wurde, so als ob die den Takt und/oder Verbrauch nicht stabil in den Griff bekommen haben.TechFA schrieb:Kann man damit sagen, daß die Ineffizienz vor allem bei der Intel-GPU vorliegt?
Doch. Intel hat den HPC-Markt aktuell offiziell aufgegeben und mit Aurora so viel Geld verbrannt, dass kein Cent unnötiger Ausgabe mehr zu rechtfertigen ist.TechFA schrieb:Es kann mir doch Niemand erzählen, daß Intel nicht alles würde daran setzen, die verbliebenen Prozente zur einst fest versprochenen 2 ExaFLOP-Marke zu knacken, wenn sie schon bei 1.980,01 PetaFLOP sind!
Weil die anderen stolz sein können, auf das was sie erreichen. Intel kann sich nur schämen. Aber man sollte auch nicht vergessen: Intel ist nicht der Betreiber, sondern Argonne. Intel kann nicht einfach so von sich aus solche Benchmarks da fahren.TechFA schrieb:Warum wird da nichts gemacht, wenn praktisch alle anderen Systeme immer wieder ein bisschen an Leistung zulegen und neuerliche Leistungstests fahren?
Man bekommt den Eindruck, dass sowohl Argonne als auch Intel am Liebsten den Mantel des Schweigens über Aurora breiten wollen.TechFA schrieb:Hat Intel das Thema "Aurora" komplett abgeschlossen und will gar nicht die 2 ExaFLOP-Marke knacken?
Ja. Ponte Vecchio wurde schnell abgekündigt. Rialto Bridge wurde gestrichen. Falcon Shores wurde gestrichen. Jaguar Shores existiert anscheinend noch, aber das hat ja auf absehbare Zeit keine Relevanz.TechFA schrieb:Oder hat Intel Aurora insgesamt mitsamt Ponte Vecchio schnellsmöglich ad Acta gelegt
Ja. Alles.TechFA schrieb:Technische Defekte, teilweise Systemausfälle, Software-Probleme?
Aurora versammelt halt in einem einzigen System alle Fehler und Probleme, die Intel in einem Jahrzehnt gemacht hat.TechFA schrieb:Was ist es und woran hapert es?
Ja haben Sie. Mit Aurora ist Intel als Prime Contractor aufgeschlagen und mit Aurora haben Sie auch die Buisnessparte eingestellt. Intel will kein Prime Contractor mehr sein weil Sue es voll verkackt haben. Die Leute wurden gegangen.TechFA schrieb:Hat Intel das Thema "Aurora" komplett abgeschlossen und will gar nicht die 2 ExaFLOP-Marke knacken?
Viel besser kann man es nicht auf den Punkt bringen als mit diesem Satz.stefan92x schrieb:Aurora versammelt halt in einem einzigen System alle Fehler und Probleme, die Intel in einem Jahrzehnt gemacht hat.
Klar, kann natürlich sein, daß Argonne nach all dem von Intel einfach nix mehr hören will, nach dem Motto;stefan92x schrieb:Intel ist nicht der Betreiber, sondern Argonne. Intel kann nicht einfach so von sich aus solche Benchmarks da fahren.
Ich denke, nach all dem Chaos über ein Jahrzehnt kann das Niemand dem Argonne wirklich verübeln.stefan92x schrieb:Man bekommt den Eindruck, dass sowohl Argonne als auch Intel am Liebsten den Mantel des Schweigens über Aurora breiten wollen.
Wie jetzt? Also die Unternehmenssparte als solches mit allem was HPC und Supercomputer betrifft komplett?Skysnake schrieb:Ja haben Sie. Mit Aurora ist Intel als Prime Contractor aufgeschlagen und mit Aurora haben Sie auch die Buisnessparte eingestellt. Intel will kein Prime Contractor mehr sein weil Sue es voll verkackt haben. Die Leute wurden gegangen.
Rückblickend ja. Damals, als größter Compute-Chiphersteller der Welt, freiwillig das Feld räumen? Ausgeschlossen.TechFA schrieb:Es wäre wohl zumindest wirtschaftlich gesehen deutlich klüger gewesen, frühzeitig dem gesamten "Projekt Aurora" den Stecker zu ziehen
War das wirklich so? Knights Landing wirkte nicht wie ein Rohrkrepierer auf mich. Ja, Intel war dabei, hinter die GPU-Beschleuniger zurück zu fallen, aber dennoch wirkte Aurora auf damaligen Stand für mich absolut machbar. Es war halt nur absehbar der einzig größere Auftrag dafür, wirtschaftlich war Xeon Phi eine Sackgasse.TechFA schrieb:Xeon Phi als Rehash von Larrabee wurde ja keinesfalls für Aurora selbst entwickelt, sondern war "bloß verfügbar", woraus dann Intel für Argonne ein kapitales Luftschloss gebastelt hat, ohne daß sich Intel überhaupt darüber im Klaren war, wie man das Ganze sollte eigentlich denn überhaupt bewerkstelligen.
Das war dann halt das Problem. Niemand bei Intel hat sich vorstellen können, wie sehr sie in den folgenden Jahren versagen würden.TechFA schrieb:Letztendlich hat sich Intel bei Aurora eigentlich nur Kopfschmerzen zugezogen, weil man wollte eben (vor allem der Selbstdarstellung wegen) auf biegen und brechen mit dem Kopf durch die Wand
Ich bin nicht sicher, ob man das so rechnen darf. SPR war ja generell der Mainstream-Xeon. Und auch Ponte Vecchio war ja als generelles Angebot gedacht, um in Konkurrenz zu Nvidia und AMD zu treten.TechFA schrieb:Wahnsinn was Intel über Umwege mit Sapphire Rapids und Ponte Vecchio in das "Projekt Aurora" in Unsummen an Geld versenkt hat. Dürfte sich insgesamt locker auf 4,5–5 Milliarden US-Dollar belaufen …
Auch damals schon https://www.computerbase.de/news/pr...rerst-nicht-mehr-im-rampenlicht-stehen.78380/TechFA schrieb:Wie jetzt? Also die Unternehmenssparte als solches mit allem was HPC und Supercomputer betrifft komplett?
Gab es darüber irgendwelche öffentlichen Meldungen über die Einstellung von der Sparte?