News Hunter & Herder: Deutscher Supercomputer setzt auch auf AMD Instinct MI300A

Bohnenhans schrieb:
AI ist einfache (Grund)Schulmathe da gibt es nichts mehr an der grundlegende HW zu forschen - das ist nur noch nachrangige "Silizium" Optimierung - Fleissarbeit für Chipdesigner sozusagen.
OMG. Das denkst du doch nicht wirklich oder?

Sorry, aber wie wenig Ahnung kann man bitte haben? Bis zu dem Satz habe ich gedacht das du vielleicht aus Anwendersicht vielleicht wenigstens was drauf hast, aber nach so ner Aussage ist klar das dem NICHT so ist...

Ich empfehle mal die Beschäftigung mit dem BlueBrain Project.

Bohnenhans schrieb:
das ist sicher fernab von dem, an dem dt Unis forschen,
Du hast keine Ahnung... da wird absolute Spitzenforschung zu den Themen gemacht, die ne Nunner zu hoch für Firmen wie nVidia usw ist, da zu fortschrittlich und experimentell.

Habe ich jetzt zwar keine Erfahrung aus erster Hand, aber nen Kollege an nem anderen Lehrstuhl hatte das auch gemacht und mit dem habe ich mich intensiv ausgetauscht.

Bohnenhans schrieb:
denn das Wichtige das Virtualisieren der Endysteme
Ähm nein. So Systeme werden nicht virtualisiert. Hast du jemals nen richtiges HPC System benutzt, oder bist du auch so nen Cloud Heini der meint was für nen RoXXer er ist und dabei nicht merkt wie planlos er eigentlich ist?

Bohnenhans schrieb:
findet zunehmend allein durch die Chiphersteller statt,
Jaein. NVIDIA macht da mehr als andere, aber da wird extrem viel abseits von denen gemacht. NVIDIA weiß schon warum Sie sich Partner mit Erfahrung holen wenn sie prime contractor sind ....

Bohnenhans schrieb:
weil das Bestandteil des Chipdesigns ist
Ähm jaein. Man hat paar grundlegende Dinge in HW, aber da sind Unmengen an Software oben drüber und viel davon machen die HW Hersteller nicht.

Bohnenhans schrieb:
und keine "Software"
Sagt der ohne Plan... Da sind Unmengen an Software drüber um die HW effizient nutzen zu können.

Bohnenhans schrieb:
oder nachträglich beeinflussbare "Hardware".
Falsch. Man kann sehr viel noch selbst entscheiden. Cloudy RoXXer und DGX Käufer hat davon eventuell nur keine Ahnung

Bohnenhans schrieb:
das er am AI Cluster optimieren kann
Stimmt, so los Performer und Mittelmaß ist davon überfordert. Die echte Exzellenz ist da aber voll dran. Ups. Bin ich vielleicht doch eher kein Mittelmaß....

Bohnenhans schrieb:
der sieht von aussen im Idealfall 1 AI Recheneinheit mit einen extrem schnellen virtuellen AI Prozessor mit extrem viel RAM -
Das AI Skriptkiddy ohne große Ambitionen ja. Wer aber da wirklich Weltklasse Arbeit abliefern will beschäftigt sich damit schon so weit möglich.

Bohnenhans schrieb:
was soll er da dann konkret optimieren?
Du noch viel lernen musst jünger Padawan...

Das würde den Rahmen hier völlig sprengen. Und ich habe auch ganz ehrlich kein Bock dir die absoluten Basics von 3-4 Semestern Vollzeitstudium vor den Latz zu knallen. Das wirst du eh nicht begreifen.

Bohnenhans schrieb:
Das ist vorgegebene HW Abstraktion in der AI CPU selber auf nach aktuellem Stand sehr hohem Level.
Bullshit Bingo.

Bohnenhans schrieb:
Und diese Abstraktionsebene, die man auch auf HW Ebene nur noch sieht, die definiert allein NVidia AMD etc.
Du hattest so was von keine Ahnung was das Operating von großen Systemen alles macht... geschweige denn was da alles an Forscvung betrieben wird.

Bohnenhans schrieb:
Wie man grosse AMD oder NVidia AI Systeme zusammenschraubt? Das findet sicher auf youtube :D
Ist dir das nicht peinlich?

Dunning Kruger hat it's best....
 
Das hat nichts mit Glauben zu tun das ist einfach so das sind einfachste Grundrechenarten mit rationalen Zahlen - mehr nicht.

Hier mal weil Nvidia super dokumentiert ist - aber AMD wird hoffentlich ja auf gleichem Level spielen.

https://www.nvidia.com/de-de/data-center/nvlink/

"Die Grafikprozessoren können als einzelner Hochleistungsbeschleuniger mit bis zu 15 PetaFLOPS Rechenleistung für Deep Learning genutzt werden."

Also nix Bullshit - Dein Wissen ist einfach vermutlich nur hoffnungslos veraltet.

Nur 2 (!) Stück davon man ist bereits ganz nahe am Stuttgarter System (30 statt 39 PetaFLOPS) 3 Stück davon und das Stuttgarter System ist hinter sich gelassen. Und NVSwitch Gen4 steht schon in den Startlöchern....

Man hat ~ 40% des Gesamtleistung des kompletten Stuttgarter System das nicht nicht mal existiert in einer einzigen(!) solchen virtuellen AI CPU.

Ein AI Netz auf möglichst einer CPU trainieren mit einem RAM ist das was man will. Weil die Neugewichtung der Nodes voneinander abhängt und nicht wirklich parallelisierbar ist.

Du redest einfach wie jemand der vor 10 oder 20 Jahren stehengeblieben ist und seither nichts mehr mitbekommen hastr - ein Problem vieler älterer Menschen, dass sie sich irgendwann ausklinken und meinem damit würde die ganze Welt dann auch auf dem Stand stehenbleiben auf dem sie ist - macht sie aber halt nicht.

Ich verlinke einfach wie oben dann den Stand der Technik da kann das dann jeder auch nachlesen - wobei ich mir sicher bin die meisten, die sich für das Thema interessieren wissen das eh schon das genau das die Stärke der AI Zentren ist die komplette Virtualsierung und Abstraktion auf Chip Ebene.

Weil die das Problem der systembedingt ganz schlechten Parallelisierbarkeit von AI Trainings komplett löst.e
 
Zuletzt bearbeitet:
Zurück
Oben