News Neue AWS-Chips für die Cloud: KI-Chips Graviton 5 und Trainium 3 und 4 rücken vor

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.575
Mit Graviton5 und Trainium 3/4 mischt AWS weiter im CPU- und AI-Umfeld mit. Für die eigenen Cloud-Dienste gibt es mitunter nichts besseres, die Lösungen sind genau darauf zugeschnitten. Nun werden sie noch einmal viel schneller, mehr Kerne, Caches und in Zukunft bei Trainium4 auch Nvidias NVLink Fusion sind dabei.

Zur News: Neue AWS-Chips für die Cloud: KI-Chips Graviton 5 und Trainium 3 und 4 rücken vor
 
  • Gefällt mir
Reaktionen: cosmo45, aid0nex, konkretor und eine weitere Person
Wofür der 5-fache Cache?
Cache bringt doch bei LLMs kaum was, das sieht man wenn man mal eine RTX 3090 vs 4090 Performance vergleicht.

Die 3090 ist kaum langsamer als die 4090 - weil die 4090 kaum mehr Speicherbandbreite hat und das beim Gaming durch den neuen riesigen L2 Cache kompensiert.
 
@Rickmer
Der größere Cache bezieht sich auf die CPU, nicht auf den AI Beschleuniger.
 
  • Gefällt mir
Reaktionen: aid0nex, Zagrthos, konkretor und eine weitere Person
Das muss dem Team im Labor große Freude gemacht haben, das System zum laufen zu bringen. Beziehungsweise zu testen. Das erinnert mich an meine Ausbildung als Büroinformationselektroniker.
 
Rickmer schrieb:
Wofür der 5-fache Cache?
Cache bringt doch bei LLMs kaum was, das sieht man wenn man mal eine RTX 3090 vs 4090 Performance vergleicht.

Die 3090 ist kaum langsamer als die 4090 - weil die 4090 kaum mehr Speicherbandbreite hat und das beim Gaming durch den neuen riesigen L2 Cache kompensiert.

Stell dir ein Einkaufszentrum vor, das nur wenige Parkplätze direkt am Eingang hat. Wenn mehr Autos kommen, müssen sie vom großen Parkplatz im nächsten Ort über eine enge Landstraße anreisen.

Jetzt stell dir vor, der Parkplatz direkt am Eingang wird vergrößert – doppelt so groß. Das klingt erst mal gut, oder? Aber die enge Landstraße ist immer noch der Flaschenhals: die Autos kommen nicht schneller an, sie stauen sich trotzdem. Der größere Parkplatz kann also nicht mehr Autos aufnehmen, weil einfach nicht genug Nachschub über die Straße kommt.

Genau das passiert bei GPUs mit LLMs: der L2/L3-Cache ist wie der Parkplatz, der Speicher (GDDR6) wie die Landstraße. Wenn die Bandbreite des Speichers nicht reicht, bringen größere Cache-Mengen kaum etwas, weil die ALUs trotzdem auf Daten warten müssen.


Bei spezialisierten AI-Chips wie Trainium/TPU ist die Straße viel breiter und es gibt Brücken zwischen Parkplätzen (Fusion/NVLink), sodass mehr Autos gleichzeitig ankommen. Deshalb können größere Caches dort auch tatsächlich den Durchsatz steigern.“

Bei AI fällt und steht alles über die Bandbreite. Deshalb ist auch die Gewaltigen Sprünge zwischen CPU, GPU und TPUs....

CPU AI so extrem langsam gegenüber GPU, die oft mehr die das schon viel besser kann, weil vram schneller als ram. Aber ist noch immer eigentlich "nur" auf Pixel optimiert. Bei TPU/NPU Lösungen steht nicht mehr Pixel sonder t Int4/8 werte im Fordergrund.

Sprich, du hast einen riesigen Industriepark mit einem riesigen Parkplatz, wo praktisch jedes Auto eine eigene Autobahnspur zur Garage zu Hause hat.


Ist jetzt nur ein Bildliches Beispiel. Aber so in etwa kann man es sich vortsellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sebastian_uniq, aid0nex, Zagrthos und 6 andere
lynx007 schrieb:
Ist jetzt nur ein Bildliches Beispiel. Aber so in etwa kann man es sich vortsellen.
Hast du meinen Beitrag (und den Beitrag direkt darunter) überhaupt gelesen bevor du den Rest von deinem Müll mit KI generiert hast?
 
Nein, ich wollte Ihne höfliche und plausible Antwort auf ihre Frage geben warum die 4090 von Ihrem Cache nicht profitieren könnte. Das Sie den unterschied zwischen CPU und GPU nicht kennen kam mir nicht in den Sinn. Ich war mal wieder vorschnel, und es wird bei Ihnen auch nicht mehr vorkommen, versprochen. :freak:

1764953498841.png
 
  • Gefällt mir
Reaktionen: sebastian_uniq, aid0nex, Cr4y und eine weitere Person
Hier fliegt ja gleich wieder eine Liebe durch den (virtuellen) Raum...
 
  • Gefällt mir
Reaktionen: Alphanerd
Neben den Invest in Software werden die Techriesen mittlerweile auch Hardwareproduzenten. Das sollte nicht unterschätzt werden.
Kommen die mit revolutionären technischen Patenten könnten sie den Markt komplett aufrollen.
 
Unfassbare Zahlen.
Kein Wunder dass für uns kleine Nerds nix mehr an Hardware übrig bleibt
Screenshot 2025-12-06 at 04-46-08 Neue AWS-Chips für die Cloud KI-Chips Graviton 5 und Trainiu...png
 
@aid0nex

und stellt dir vor, er hat damals Bücher online verkauft und alle sagten, der ist verrückt. Warum sollte heute Amazon nicht seine eigenen Chips machen? Viele wissen nicht, was alles Amazon macht außer Video Prime.
 
  • Gefällt mir
Reaktionen: aid0nex
Zurück
Oben