News Huawei Atlas 300I Duo 96GB: Das steckt im Dual-GPU-AI-Beschleuniger aus China

Kaito Kariheddo

Redakteur Pro
Teammitglied
Registriert
Dez. 2021
Beiträge
1.095
  • Gefällt mir
Reaktionen: Moerf, eastcoast_pete, SweetOhm und 16 andere
Hat GN zufällig im Video erwähnt, wie viele mm² der Chip hat und mit welchem Node produziert wird? Oder ist das unter der Metallhaube noch ein Geheimnis?

LPDDR4X... kein Wunder, dass die Speicherbandbreite gruselig langsam ist. Das Maximum müsste irgendwo bei 4166 MT/s liegen, glaube ich. Ob LPDDR5X zu teuer war?

Aber dafür hat die Karte grob geschätzt einen vollen Reel an keramischen Kapazitatoren aufgebraucht. Sieht irgendwie witzig aus.
(Scherz. Auf einem Reel sind vermutlich 10.000 dieser Caps. Das reicht für ein paar Karten.)
 
  • Gefällt mir
Reaktionen: phanter und Mcr-King
Rickmer schrieb:
Ob LPDDR5X zu teuer war?
Ich nehme an das "aus China" auch bedeutet "voll und ganz gefertigt in China mit Teilen aus China" und dann fällt alles auf Basis DDR5 raus, weil sie dafür momentan noch keine eigene Fertigung haben, die ist erst im Aufbau und failed momentan noch.
 
  • Gefällt mir
Reaktionen: SweetOhm, phanter, Mcr-King und 8 andere
280 TOPS INT8-Leistung und 96GB Speicher decken viele Anforderungen für KI-Entwicklung ab. Doch im Vergleich mit Nvidias Blackwell, der ebenfalls 96GB bietet,
huawei hat 2x 48 GB - das ist was anderes als 1x 96 GB, da jeder chip nur auf 48 GB zugreifen kann.
Für diesen Preis erhalten Käufer fünf Huawei-Karten und damit sogar mehr Leistung als mit der einzelnen Nvidia-Karte.
5x huawei ist nicht leistungsstärker als 1x nvidia, da noch der ganze kommunikations- und verwaltungsoverhead dazu kommt, vom platzbedarf und der anzahl der benötigten lanes mal ganz abgesehen.
 
  • Gefällt mir
Reaktionen: Phintor, phanter, Edzard und 13 andere
Trotzdem beeindruckend, könnte Deutschland nur auch sowas bauen. Wir werden mehr und mehr abgehängt.
 
  • Gefällt mir
Reaktionen: buchemer, Phintor, SweetOhm und 27 andere
0x8100 schrieb:
5x huawei ist nicht leistungsstärker als 1x nvidia, da noch der ganze kommunikations- und verwaltungsoverhead dazu kommt, vom platzbedarf und der anzahl der benötigten lanes mal ganz abgesehen.
Dafür hat man aber auch 5x so viel Speicher..
 
  • Gefällt mir
Reaktionen: SweetOhm, twoface88, Mcr-King und eine weitere Person
Rickmer schrieb:
Hat GN zufällig im Video erwähnt, wie viele mm² der Chip hat und mit welchem Node produziert wird? Oder ist das unter der Metallhaube noch ein Geheimnis?
Also die Karte ist ja nicht neu und auch der Chip ist schon bisschen älter. Bin mir auch nicht ganz sicher ob es der Ascend 310 ist der hier beschrieben wird: https://forum.huawei.com/enterprise.../667234360086118400?blogId=667234360086118400
Aber wenn, dann dürfte der sogar 12nm sein. Im Grunde sind das 16 ARM Kerne zusammen mit 16 AI Kernen (DaVinci)
0x8100 schrieb:
huawei hat 2x 48 GB - das ist was anderes als 1x 96 GB, da jeder chip nur auf 48 GB zugreifen kann.
Sicher sicher ? Hab gelesen im Virtualisierung Modus können die NPUs auf alle Ressourcen zugreifen. Oder waren wirklich nur die angebunden Ressourcen gemeint und nicht die der Karte ?

0x8100 schrieb:
5x huawei ist nicht leistungsstärker als 1x nvidia
Glaub die Huaweis können nichtmal int4 direkt, klar ist die Nvidia schneller. Aber im reinen bereitstellen von int8-Leistung kriegt man fürs gleiche Geld schon genug geboten.

Falls es jemanden interessiert, es gibt noch einen Mini-PC von Orange PI mit 96/192GB und dem gleichen Prozessor: http://www.orangepi.cn/html/hardWar...trollers/details/Orange-Pi-AI-Studio-Pro.html
 
  • Gefällt mir
Reaktionen: Nanax, SweetOhm und Mcr-King
HerrRossi schrieb:
Wir werden mehr und mehr abgehängt.
Warum mehr und mehr?

Wir haben weder die nötigen Ressourcen, noch die nötigen Kompetenzen, noch die Ambitionen mitzuhalten.

Wir sind so weit abgehängt, dass der Gedanke Chips auf diesem Niveau aus rein deutscher Produktion zu sehen, ein reiner Wunschtraum ist.
 
  • Gefällt mir
Reaktionen: Phintor, SweetOhm, twoface88 und 17 andere
ueg schrieb:
Dafür hat man aber auch 5x so viel Speicher..
Super. Den nutzt du dann, um bspw. 5 mal das oss-gpt120b (oder was auch immer) zu laden, was du auch musst, da die Leistung einer Karte nicht ausreicht x Anfragen zu bedienen. Mit Nvidia brauchst du eine Karte und ein geladenes Modell, weil die Leistung der einen Karte für die x Anfragen ausreicht. Was hast du jetzt mit den 5 mal 96GB VRAM gewonnen? Nichts.

Wenn ich einen Denkfehler hab, dann gerne korrigieren.

HerrRossi schrieb:
Wir werden mehr und mehr abgehängt.
Wir waren doch nie wirklich im Rennen bzgl. moderner GPUs oder sonstiger Chips?
 
  • Gefällt mir
Reaktionen: Mcr-King, Kommando, Galatian und 2 andere
DaysShadow schrieb:
Wir waren doch nie wirklich im Rennen bzgl. moderner GPUs oder sonstiger Chips?
Naja zumindest was die Fertigung angeht hatten wir 14nm AMDs RX480er aus Dresden
.. wir 12nm in Dresden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: phanter, Mcr-King und Dgini
Wenn einige hier von "wir" schreiben, meinen sie wahrscheinlich eher die EU/Europäische Staaten als Deutschland. Und damit haben sie recht, wir sind so abgehängt, das wird böse enden.
 
  • Gefällt mir
Reaktionen: Mcr-King, Buchstabe_A, SavageSkull und 4 andere
Kaito Kariheddo schrieb:
Naja zumindest was die Fertigung angeht hatten wir 14nm AMDs RX480er aus Dresden
Stimmt wohl so nicht, weißt du woher du das hast?

Dresden jedenfalls hatte keine 14nm Fertigung (22nm und dann später 12nm) und die 400er GPUs wurden entsprechend auch nicht dort gefertigt sondern parallel bei Samsung und in Fab 8 von GF in den USA (siehe u.a. hier).

Dennoch interessant, dass es in Dresden eine 12nm Fertigung gibt.
 
  • Gefällt mir
Reaktionen: Slim.Shady, SweetOhm und phanter
@DeusExMachina Aus meiner Sicht ziemlich sicher für die Inferenz, also das Laden und Befüttern bereits trainierter Modelle wie bspw. das genannte gpt-oss-120b. Glaube die 96GB RAM sind nicht ohne Grund gewählt, denn so passt dieses Modell ja bspw. komplett in den VRAM. (Oder eines der vielen anderen Modelle natürlich, was komplett in den RAM passt ist immer gut)

Fürs Training kann man die grundlegend auch benutzen, ist dann halt auch entsprechend langsamer ggü. der Nvidia Konkurrenz.
 
Kaito Kariheddo schrieb:
das sieht mir nicht danach aus, als ob da ein interconnect zwischen den beiden chips ist, der die speicherbandbreite von 204 GB/s schaffen würde - wenn da überhaupt einer ist. es wurde ja explizit gesagt, dass bifurcation benötigt wird, so dass das eigenständige devices im system sind.
Kaito Kariheddo schrieb:
Hab gelesen im Virtualisierung Modus können die NPUs auf alle Ressourcen zugreifen.
du meinst das?
One Ascend AI Processor can be divided into several virtual
NPUs in virtualization mode. Each virtual NPU supports 1, 2, or
4 AI Cores, and other hardware resources (such as memory
and codec module) are divided proportionally. One 310 series
processor can be virtualized into a maximum of 7 virtual
NPUs.
da geht es um die aufteilung der lokalen ressourcen pro prozessor/chip.

DaysShadow schrieb:
Aus meiner Sicht ziemlich sicher für die Inferenz
huawei schreibt selbst:
3.3 Typical Application Scenario
...
The Atlas 300I Duo inference card is deployed on the inference server to implement inference functions such as recalling, sorting, and resorting of user data types.
ansonsten taugt die karte für "Smart City 2.0 city governance scenarios" zwinker,zwinker
1760825004505.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Moerf, IgorGlock, Haldi und eine weitere Person
0x8100 schrieb:
"Smart City 2.0 city governance scenarios" zwinker,zwinker
Haha, naja smart ist es, nur halt nicht für jeden...:D
 
  • Gefällt mir
Reaktionen: IgorGlock
@0x8100 hab die Passage überarbeitet, danke für die Anmerkung.
DaysShadow schrieb:
Stimmt wohl so nicht, weißt du woher du das hast?
Hab mich vertan, Polaris war wohl aus den USA, In Dresden der IO-Chips der ersten Ryzens.
 
  • Gefällt mir
Reaktionen: SweetOhm und Nitschi66
DaysShadow schrieb:
Wir waren doch nie wirklich im Rennen bzgl. moderner GPUs oder sonstiger Chips?
1760830810078.png


Ha! Wir waren quasi die #1 im RGW. Da staunste, wa! :D
In unserem sächsischen Silicon Valley gibt es aber auch heute noch allerhand Fabs. Gut, die produzieren nicht im 2-nm-Node, aber 12 nm sind doch auch gut.

Mit Taiwan können wir eh nicht mithalten. Laut ChatGPT macht die dortige Chipproduktion 18% des BIP aus! Damit man mal eine Ahnung hat, was das bedeutet: 23% des deutschen BIPs kommt aus der Industrie (exkl. Agrar, Dienstleistungen und Bau).
Meiner Meinung nach ist es gefährlich, als Land so sehr auf eine Schiene zu setzen. Ich weiß, dass der Silicon Shield dran hängt, aber trotzdem ist das ein starkes Ungleichgewicht.
 
  • Gefällt mir
Reaktionen: TechFunk, SweetOhm, phanter und 6 andere
Hat exakt 1/4 der TDP, aber etwas mehr als 1/4 der Leistung und weniger als 1/4 des Preises
Man zahlt also weniger für 4 davon bekommt mehr Leistung und benötigt weniger Energie... Nur mehr Platz braucht man wohl

Leider handelt es sich hier bloß um ein nutzlos es "KI" Produkt, schade
 
  • Gefällt mir
Reaktionen: SweetOhm
Dresden:
Infineon, GlobalFoundries, Bosch, ESMC, ...

dazu Grundlagenforschung an den Universitäten und nicht vergessen: der umfangreiche industrielle Zuarbeitssektor
 
  • Gefällt mir
Reaktionen: Mondgesang und SP-937-215
Zurück
Oben