News Aurora: Ohne Intel-Xe-GPU kein Exascale-Supercomputer

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Im Jahr 2015 ins Leben gerufen, zuletzt aber noch einmal komplett umgestellt, soll Aurora der erste Exascale-Computer der USA werden. Er soll nahezu vollständig auf Intel-Technik basieren und zeigt, dass das Ziel ohne GPU niemals erreicht werden könnte: Die neue Xe-Grafik-Architektur ist maßgeblich für die Leistung zuständig.

Zur News: Aurora: Ohne Intel-Xe-GPU kein Exascale-Supercomputer
 
  • Gefällt mir
Reaktionen: Mcr-King
Das Ökosystem stellt einmal mehr Cray. Das kürzlich vorgestellte System Shasta wird in Zukunft bei vielen Supercomputern zum Einsatz kommen. Allerdings stehen bis dato noch nicht einmal alle Parameter fest, erklärt Cray in einer parallel verteilten Pressemitteilung, diese sollen erst Mitte dieses Jahres festgesetzt werden.

Hab ich jetzt noch nicht genug Kaffee gehabt? Kann das jemand für mich deuten? Ist Aurora jetzt Shasta? Aber Shasta ist doch ne Epyc Basis (Perlmutter). Oder ist Aurora der Intel Ableger von Shasta?
 
Das Ganze klingt mir noch zu sehr nach Absichtserklärung.. Nicht das das ein amerikanischer BER wird. :-)
 
Na hoffentlich bringt Intel damit etwas Bewegung in den Gaming Grafikkarten Bereich. Hätte nichts dagegen 2020 meine 1080 gegen eine Intel zu tauschen :-D
 
  • Gefällt mir
Reaktionen: goldeye und Highskilled
Fliz
Absichtserklärung => Mondreise triffts eher. :alien_alt:

hannes130185
Wird sicher für einige eine Zerreißprobe die Intel und NV immer in Verbindung gebracht haben :D
Dann Intel und Intel kaufen 🤷‍♂️

Persönlich bin ich gespannt, was Intel im Gaming Bereich auf den Markt bringen kann. Es müsste nicht mal High-End sein. Gute Grafikkarten im Mittelbereich, würde den Markt schon sehr gut tun.
Bin gespannt was Gaming GPUs neben AMD auch für NV bedeuten dürfte. Ich rechne mit großen Marketing-Kampagnen und Rabatten. Sprich zu einer Intel CPU wird ein OEM Anbieter vermutlich auch auf eine Intel GPU Rabatt bekommen (!?)
 
Zuletzt bearbeitet:
darf Intel seine 14nm Fertigung aber ordentlich auf Trab bringen
 
Wenn das ein US-Goverment Projekt ist muss es da eigentlich eine Ausschreibung geben?
Intel kann doch nicht einfach Mondpreise verlangen! Wäre doch eine Zumutung für den US-Steuerzahler, oder etwa nicht?

AMD kann bestimmt besseres PetaFlop/US-$ Verhältnis liefern!

Ausschreibung muss her!
 
Ned Flanders schrieb:
Hab ich jetzt noch nicht genug Kaffee gehabt? Kann das jemand für mich deuten? Ist Aurora jetzt Shasta? Aber Shasta ist doch ne Epyc Basis (Perlmutter). Oder ist Aurora der Intel Ableger von Shasta?

Shasta ist im Endeffekt die Basis von Cray. Dazu gehört eine recht unklare Sammlung von Techniken, weil sowohl das Innenleben (x86 CPUs, ARM CPUs, GPU) als auch deren Verbindung (Crays eigenes Slingshot oder auch Infiniband und Omnipath) wechseln kann. Crays eigene Beschreibungen dazu sind dementsprechend inhaltsleer. Grob lässt sich aber sagen, dass Cray alles drumherum stellt und man an Beschleunigern rein stecken können soll, was man will.

Aurora ist nur dieser eine Supercomputer hier, der eben die Shasta-Basis nutzt.
 
  • Gefällt mir
Reaktionen: Hopsekäse und Ned Flanders
Maxminator schrieb:
Wenn das ein US-Goverment Projekt ist muss es da eigentlich eine Ausschreibung geben?
Intel kann doch nicht einfach Mondpreise verlangen! Wäre doch eine Zumutung für den US-Steuerzahler, oder etwa nicht?

AMD kann bestimmt besseres PetaFlop/US-$ Verhältnis liefern!

Ausschreibung muss her!
naja das Ding ist nicht erst seit gestern in Planung :)
 
  • Gefällt mir
Reaktionen: calluna und abcddcba
.. und zeigt, dass das Ziel ohne GPU niemals erreicht werden könnte: Die neue Xe-Grafik-Architektur ist maßgeblich für die Leistung zuständig. ..

woll'n wer doch erstmal sehen ob die alte Regel - im Endeffekt überlebt bei Intel auf der Prozessorseite nur x86 - nicht diesmal auch greift .. ;)

da muß man vielleicht ein wenig vom GPU Sektor lernen, am Cache drehen und den AVX Befehlssatz runderneuern und vielleicht auch HBM und optisches Omnipath in die Prozessoren bauen - dann wird das schon ..

Außerdem - schlagt mich aber die gängigen GPUs eiern auch seit Jahren an der 3000..4000 CE(32bit) Grenze je Chip rum. Und haben dabei mal gerade die 1 Ghz geknackt ? Auch NVidia scheint da im Augenblick mehr auf GPU Parallelität zu setzen - NVLink&Switch und Mellanox/Infiniband lassen grüßen.

Wenn da irgendwelche neue Strukturen wirklich ihren Weg in die Prozessorgehäuse finden dann glaub ich da vielleicht eher an FPGA und/oder Neuroprocessing .. aber auch da ist noch nicht aller Algorithmen Abend. Wie allerdings der Quantencomputer zu x86 paßt .. hmm.
 
Zuletzt bearbeitet:
Computerbase schrieb:
Aurora ist ein System, das in vielen Bereichen aus bisher nur auf dem Papier beschriebenen Lösungen bestehen wird.

Woher wisst ihr, dass einige der beschrieben Lösungen bisher nur auf dem Papier beschrieben sind und es nicht zumindest Prototypen gibt?

Für mich interessant ist die API, die Intel angekündigt hat, die einheitlich für die Verwendung von CPU und GPU sein soll.

@senf.dazu

AVX erneuern? Du meinst AVX512? Das ist so, wie es ist, schon sehr gut und nützlich - doch dabei muss man an die Anwendungsfälle denken. Grob gesagt sind CPUs auf Latenz getrimmt und GPUs auf Durchsatz. Und AVX verbessert deutlich den Durchsatz bei gleichbleibend guter Latenz - und es gibt Anwendungsfälle, für die das nützlich ist.
Dagegen ist der enorme Durchsatz, den GPUs schaffen, sehr nützlich bei den vielen einfachen Berechnungen mit geringer Genauigkeit, bei denen Latenz unwichtig ist, wie z.B. bei Deep-Learning.
 
Zuletzt bearbeitet:
calluna schrieb:
Woher wisst ihr, dass einige der beschrieben Lösungen bisher nur auf dem Papier beschrieben sind und es nicht zumindest Prototypen gibt?

Für mich interessant ist die API, die Intel angekündigt hat, die einheitlich für die Verwendung von CPU und GPU sein soll.

@senf.dazu

AVX erneuern? Du meinst AVX512? Das ist so, wie es ist, schon sehr gut und nützlich - doch dabei muss man an die Anwendungsfälle denken. Grob gesagt sind CPUs auf Latenz getrimmt und GPUs auf Durchsatz. Und AVX verbessert deutlich den Durchsatz bei gleichbleibend guter Latenz - und es gibt Anwendungsfälle, für die das nützlich ist.
Dagegen ist der enorme Durchsatz, den GPUs schaffen, sehr nützlich bei den vielen einfachen Berechnungen mit geringer Genauigkeit, bei denen Latenz unwichtig ist, wie z.B. bei Deep-Learning.
Sicher mein ich die aktuelle Version von AVX (oder gibt's etwa noch Xeons bei denen das nicht verbaut ist ?). Habe halt den Eindruck das AVX(512) bei der Parallelisierbarkeit von Code noch ein paar Defizite hat - Befehle zur Sprungparallelisierung sind mir z.B. im Instruktionssatz noch nicht aufgefallen (was nix heißen muß - kann man gut auch mal übersehen und meine letzte intensivere Berührung damit war halt noch AVX256 ..). Die ersten SIMD Instruktionssätze von Intel, MMX,SSExy,Ur-AVX sind sicher ursprünglich nicht für das GPU-Programmierparadigma (kernel der vielfach ausgeführt wird) gestrickt worden - im Gegensatz zu NVidia.PTX.. Und der bessere Durchsatz der GPUs mag zum guten Teil durch den Durchsatz des breit angebundenen Videospeichers (oft dazu schon HBM) bedingt sein, während die Intel-CPUs eher mit ihren im Vergleich dazu mikrigen Caches spielen müssen - deswegen das HBM in den Prozessor. Dann könnte man vielleicht schon ganz gut auf GPUs verzichten .. und gleichzeitig " wenig Latenz" und Durchsatz haben .. aber bislang waren halt die HBMs noch ein wenig zu mikrig als x86 Hauptspeicher und auch etwas kostspielig
 
Zuletzt bearbeitet:
hannes130185 schrieb:
Na hoffentlich bringt Intel damit etwas Bewegung in den Gaming Grafikkarten Bereich. Hätte nichts dagegen 2020 meine 1080 gegen eine Intel zu tauschen :-D

Es war imho. schon lange vorher klar das Intel ein GPGPU bzw ML-GPU haben will und keine Gamer GPU.
Wieso glaubt man nach so einer Meldung da kommt ne GPU die fürs Gaming taugt?
Das vieh wird wie V100 und Vega, kann zwar Games darstellen, das wars aber auch.
Dafür wird NIX optimiert werden.
Und vor allem, wann war Intel jemals günstiger??? :D
 
But can it run Crysis?
 
Na hoffen wir mal, dass das ein vorzeitiger Aprilscherz ist:
Die intel Xe schafft "...bis 2,7GHz Turbo..." der durch ein Kostenpflichtiges Upgrade möglich wird
 
Zurück
Oben