News Aurora: Ohne Intel-Xe-GPU kein Exascale-Supercomputer

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.762
Im Jahr 2015 ins Leben gerufen, zuletzt aber noch einmal komplett umgestellt, soll Aurora der erste Exascale-Computer der USA werden. Er soll nahezu vollständig auf Intel-Technik basieren und zeigt, dass das Ziel ohne GPU niemals erreicht werden könnte: Die neue Xe-Grafik-Architektur ist maßgeblich für die Leistung zuständig.

Zur News: Aurora: Ohne Intel-Xe-GPU kein Exascale-Supercomputer
 

Ned Flanders

Rear Admiral
Dabei seit
Aug. 2004
Beiträge
5.729
Das Ökosystem stellt einmal mehr Cray. Das kürzlich vorgestellte System Shasta wird in Zukunft bei vielen Supercomputern zum Einsatz kommen. Allerdings stehen bis dato noch nicht einmal alle Parameter fest, erklärt Cray in einer parallel verteilten Pressemitteilung, diese sollen erst Mitte dieses Jahres festgesetzt werden.
Hab ich jetzt noch nicht genug Kaffee gehabt? Kann das jemand für mich deuten? Ist Aurora jetzt Shasta? Aber Shasta ist doch ne Epyc Basis (Perlmutter). Oder ist Aurora der Intel Ableger von Shasta?
 

Fliz

Lt. Commander
Dabei seit
Juli 2015
Beiträge
1.618
Das Ganze klingt mir noch zu sehr nach Absichtserklärung.. Nicht das das ein amerikanischer BER wird. :-)
 

pipip

Admiral
Dabei seit
Jan. 2011
Beiträge
9.853
Fliz
Absichtserklärung => Mondreise triffts eher. :alien_alt:

hannes130185
Wird sicher für einige eine Zerreißprobe die Intel und NV immer in Verbindung gebracht haben :D
Dann Intel und Intel kaufen 🤷‍♂️

Persönlich bin ich gespannt, was Intel im Gaming Bereich auf den Markt bringen kann. Es müsste nicht mal High-End sein. Gute Grafikkarten im Mittelbereich, würde den Markt schon sehr gut tun.
Bin gespannt was Gaming GPUs neben AMD auch für NV bedeuten dürfte. Ich rechne mit großen Marketing-Kampagnen und Rabatten. Sprich zu einer Intel CPU wird ein OEM Anbieter vermutlich auch auf eine Intel GPU Rabatt bekommen (!?)
 
Zuletzt bearbeitet:

Findus

Lt. Commander
Dabei seit
Juni 2005
Beiträge
1.706
darf Intel seine 14nm Fertigung aber ordentlich auf Trab bringen
 

Maxminator

Ensign
Dabei seit
Juni 2015
Beiträge
140
Wenn das ein US-Goverment Projekt ist muss es da eigentlich eine Ausschreibung geben?
Intel kann doch nicht einfach Mondpreise verlangen! Wäre doch eine Zumutung für den US-Steuerzahler, oder etwa nicht?

AMD kann bestimmt besseres PetaFlop/US-$ Verhältnis liefern!

Ausschreibung muss her!
 

Conqi

Lieutenant
Dabei seit
Dez. 2011
Beiträge
740
Hab ich jetzt noch nicht genug Kaffee gehabt? Kann das jemand für mich deuten? Ist Aurora jetzt Shasta? Aber Shasta ist doch ne Epyc Basis (Perlmutter). Oder ist Aurora der Intel Ableger von Shasta?
Shasta ist im Endeffekt die Basis von Cray. Dazu gehört eine recht unklare Sammlung von Techniken, weil sowohl das Innenleben (x86 CPUs, ARM CPUs, GPU) als auch deren Verbindung (Crays eigenes Slingshot oder auch Infiniband und Omnipath) wechseln kann. Crays eigene Beschreibungen dazu sind dementsprechend inhaltsleer. Grob lässt sich aber sagen, dass Cray alles drumherum stellt und man an Beschleunigern rein stecken können soll, was man will.

Aurora ist nur dieser eine Supercomputer hier, der eben die Shasta-Basis nutzt.
 

Waelder

Commander
Dabei seit
Juli 2012
Beiträge
2.166
Wenn das ein US-Goverment Projekt ist muss es da eigentlich eine Ausschreibung geben?
Intel kann doch nicht einfach Mondpreise verlangen! Wäre doch eine Zumutung für den US-Steuerzahler, oder etwa nicht?

AMD kann bestimmt besseres PetaFlop/US-$ Verhältnis liefern!

Ausschreibung muss her!
naja das Ding ist nicht erst seit gestern in Planung :)
 

Reowulf

Lt. Commander
Dabei seit
Sep. 2007
Beiträge
1.627

senf.dazu

Ensign
Dabei seit
Nov. 2016
Beiträge
195
.. und zeigt, dass das Ziel ohne GPU niemals erreicht werden könnte: Die neue Xe-Grafik-Architektur ist maßgeblich für die Leistung zuständig. ..
woll'n wer doch erstmal sehen ob die alte Regel - im Endeffekt überlebt bei Intel auf der Prozessorseite nur x86 - nicht diesmal auch greift .. ;)

da muß man vielleicht ein wenig vom GPU Sektor lernen, am Cache drehen und den AVX Befehlssatz runderneuern und vielleicht auch HBM und optisches Omnipath in die Prozessoren bauen - dann wird das schon ..

Außerdem - schlagt mich aber die gängigen GPUs eiern auch seit Jahren an der 3000..4000 CE(32bit) Grenze je Chip rum. Und haben dabei mal gerade die 1 Ghz geknackt ? Auch NVidia scheint da im Augenblick mehr auf GPU Parallelität zu setzen - NVLink&Switch und Mellanox/Infiniband lassen grüßen.

Wenn da irgendwelche neue Strukturen wirklich ihren Weg in die Prozessorgehäuse finden dann glaub ich da vielleicht eher an FPGA und/oder Neuroprocessing .. aber auch da ist noch nicht aller Algorithmen Abend. Wie allerdings der Quantencomputer zu x86 paßt .. hmm.
 
Zuletzt bearbeitet:

calluna

Lt. Commander
Dabei seit
Okt. 2010
Beiträge
1.543
Zitat von Computerbase:
Aurora ist ein System, das in vielen Bereichen aus bisher nur auf dem Papier beschriebenen Lösungen bestehen wird.
Woher wisst ihr, dass einige der beschrieben Lösungen bisher nur auf dem Papier beschrieben sind und es nicht zumindest Prototypen gibt?

Für mich interessant ist die API, die Intel angekündigt hat, die einheitlich für die Verwendung von CPU und GPU sein soll.

@senf.dazu

AVX erneuern? Du meinst AVX512? Das ist so, wie es ist, schon sehr gut und nützlich - doch dabei muss man an die Anwendungsfälle denken. Grob gesagt sind CPUs auf Latenz getrimmt und GPUs auf Durchsatz. Und AVX verbessert deutlich den Durchsatz bei gleichbleibend guter Latenz - und es gibt Anwendungsfälle, für die das nützlich ist.
Dagegen ist der enorme Durchsatz, den GPUs schaffen, sehr nützlich bei den vielen einfachen Berechnungen mit geringer Genauigkeit, bei denen Latenz unwichtig ist, wie z.B. bei Deep-Learning.
 
Zuletzt bearbeitet:

senf.dazu

Ensign
Dabei seit
Nov. 2016
Beiträge
195
Woher wisst ihr, dass einige der beschrieben Lösungen bisher nur auf dem Papier beschrieben sind und es nicht zumindest Prototypen gibt?

Für mich interessant ist die API, die Intel angekündigt hat, die einheitlich für die Verwendung von CPU und GPU sein soll.

@senf.dazu

AVX erneuern? Du meinst AVX512? Das ist so, wie es ist, schon sehr gut und nützlich - doch dabei muss man an die Anwendungsfälle denken. Grob gesagt sind CPUs auf Latenz getrimmt und GPUs auf Durchsatz. Und AVX verbessert deutlich den Durchsatz bei gleichbleibend guter Latenz - und es gibt Anwendungsfälle, für die das nützlich ist.
Dagegen ist der enorme Durchsatz, den GPUs schaffen, sehr nützlich bei den vielen einfachen Berechnungen mit geringer Genauigkeit, bei denen Latenz unwichtig ist, wie z.B. bei Deep-Learning.
Sicher mein ich die aktuelle Version von AVX (oder gibt's etwa noch Xeons bei denen das nicht verbaut ist ?). Habe halt den Eindruck das AVX(512) bei der Parallelisierbarkeit von Code noch ein paar Defizite hat - Befehle zur Sprungparallelisierung sind mir z.B. im Instruktionssatz noch nicht aufgefallen (was nix heißen muß - kann man gut auch mal übersehen und meine letzte intensivere Berührung damit war halt noch AVX256 ..). Die ersten SIMD Instruktionssätze von Intel, MMX,SSExy,Ur-AVX sind sicher ursprünglich nicht für das GPU-Programmierparadigma (kernel der vielfach ausgeführt wird) gestrickt worden - im Gegensatz zu NVidia.PTX.. Und der bessere Durchsatz der GPUs mag zum guten Teil durch den Durchsatz des breit angebundenen Videospeichers (oft dazu schon HBM) bedingt sein, während die Intel-CPUs eher mit ihren im Vergleich dazu mikrigen Caches spielen müssen - deswegen das HBM in den Prozessor. Dann könnte man vielleicht schon ganz gut auf GPUs verzichten .. und gleichzeitig " wenig Latenz" und Durchsatz haben .. aber bislang waren halt die HBMs noch ein wenig zu mikrig als x86 Hauptspeicher und auch etwas kostspielig
 
Zuletzt bearbeitet:

Shrimpy

Lieutenant
Dabei seit
Mai 2011
Beiträge
1.002
Na hoffentlich bringt Intel damit etwas Bewegung in den Gaming Grafikkarten Bereich. Hätte nichts dagegen 2020 meine 1080 gegen eine Intel zu tauschen :-D
Es war imho. schon lange vorher klar das Intel ein GPGPU bzw ML-GPU haben will und keine Gamer GPU.
Wieso glaubt man nach so einer Meldung da kommt ne GPU die fürs Gaming taugt?
Das vieh wird wie V100 und Vega, kann zwar Games darstellen, das wars aber auch.
Dafür wird NIX optimiert werden.
Und vor allem, wann war Intel jemals günstiger??? :D
 

Friger

Ensign
Dabei seit
Nov. 2018
Beiträge
132
But can it run Crysis?
 

andi_sco

Lt. Commander
Dabei seit
Jan. 2018
Beiträge
1.664
Na hoffen wir mal, dass das ein vorzeitiger Aprilscherz ist:
Die intel Xe schafft "...bis 2,7GHz Turbo..." der durch ein Kostenpflichtiges Upgrade möglich wird
 
Top