News Erste Server-CPU nach 35 Jahren: Arm AGI CPU hat 136 Kerne, 8.800 MT/s, aber kein SME2

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
19.910
  • Gefällt mir
Reaktionen: the_IT_Guy, fckzensur und SweetOhm
Na mal sehen. Letztendlich hängt es doch wieder an den Fertigungskapazitäten.
 
Arm AGI CPU?

Damit werden also unsere zukünftigen AI-Overlords angetrieben?
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Ja der Name ist sowas von lost ...
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Mar1u5, DirtyHarryOne und eine weitere Person
Diese Kreiswichserei der Marketing Möchtegern Gurus ist echt super. Genau, das ist eine AGI. Genau wie das was sich aktuell AI schimpft auch AI ist...
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Innocience, Buchstabe_A und 5 andere
Wir können den aktuellen Ansatz ja künstliche künstliche Intelligenz nennen, bis es echtkünstliche Intelligenz gibt....

Dann haben die Erbsenzähler endlich ihren Frieden 😝
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bright0001
Hm ob die AMDs C Kernen die Stirn bieten können?
:stacheln:
 
LamaMitHut schrieb:
Wir können den aktuellen Ansatz ja künstliche künstliche Intelligenz nennen, bis es echtkünstliche Intelligenz gibt....

Dann haben die Erbsenzähler endlich ihren Frieden 😝
Das hat wenig mit Erbsenzählerei zu tun, sondern ist schlicht und ergreifend eine Verklärung. Machine Learning und LLMs sind nicht neu.
 
Eine "AGI CPU" ohne SME2 ist DAS Zeichen dafür, dass da schlicht Buzzwords für den Aktienkurs verteilt werden. Technisch gesehen ist es absurd irgendwas mit AI machen zu wollen aber beim Durchsatz an Matrixoperationen zu knausern (wie auch beim Speicherdurchsatz)

Volker schrieb:
Ja der Name ist sowas von lost ...
Kurze, exakte journalistische Einordnung. (kein /s)

JustAnotherTux schrieb:
Hm ob die AMDs C Kernen die Stirn bieten können?
ISA und Konfiguration vom L2 Cache deuten auf ARM Cortex X925 hin. Die X925 sind vom Durchsatz durchaus mit Zen5 vergleichbar: https://chipsandcheese.com/p/arms-cortex-x925-reaching-desktop
 
  • Gefällt mir
Reaktionen: Hellsfoul, BatCatDog und JustAnotherTux
LamaMitHut schrieb:
Wir können den aktuellen Ansatz ja künstliche künstliche Intelligenz nennen, bis es echtkünstliche Intelligenz gibt....

Dann haben die Erbsenzähler endlich ihren Frieden 😝
Flutefox schrieb:
Das hat wenig mit Erbsenzählerei zu tun, sondern ist schlicht und ergreifend eine Verklärung. Machine Learning und LLMs sind nicht neu.
Bzgl. Marketing ist "AGI CPU" natürlich Quatsch.

Bzgl. Erbsenzählerei ist aber das Wichtigste an der ganzen Geschichte, dass die ganzen "Erbsenzähler" nicht mal recht, sondern schlichtweg keine Ahnung von der wissenschaftlichen Definition von KI haben.

KI ist ein Oberbegriff für alles von A* (Kategorie klassische symbolische KI / Suchalgorithmen) über typische ML Verfahren bis hin zu großen NNs wie eben LLMs und schlussendlich AGI.

Die zwei "Hauptkategorien", schwache KI und starke KI (engl. AGI), teilt die Domäne sehr sauber in Verfahren, die im Kern (von kaum über wenig bis ziemlich intelligent) hauptsächlich Mustererkennung betreiben (was alles heutige, auch LLMs, einschließt) und Verfahren, die ein echtes Verständnis, Bewusstsein und Problemlösungskompetenzen umsetzen.

Nur weil die Masse diesbezüglich schlichtweg keine Ahnung hat, heißt das nicht, man könne immer & überall Nörgeln "das ist doch gar nicht KI". Das verdient jedes Mal die direkte Antwort: "Doch, ist es. Du meinst 'es ist keine starke KI (AGI)'. Und ja, das ist es nicht...das hat aber auch niemand behauptet."
Selbst Marketing-Geblubber von Altman, Musk & Co. prophezeit AGI nur vielleicht für die Zukunft oder "in ein paar Jahren", wenn sie mal sehr optimistisch sein wollen.
 
  • Gefällt mir
Reaktionen: LamaMitHut und Magellan
Ich glaub ja dass es hier in erster Linie eine Machbarkeitsstudie ist, um Prozesse, Fertigung, Zusammenarbeit, etc. zu prüfen, und dann im Nachgang das "eigentliche" Produkt zu entwickeln/vorzustellen. Und da wäre es potenziell günstiger auf eine etablierte Architektur zu setzen und ein paar Features zu streichen, als aus dem Stand eine vollwertige (neue) Lösung zu entwerfen.

Flutefox schrieb:
LLMs sind nicht neu
Sind sie nicht? Kannst du das belegen? Hab nämlich recht große Zweifel daran, dass der Begriff prä-GPT die gleiche Bedeutung hatte - falls er denn überhaupt schon existiert hat. :P
 
Bright0001 schrieb:
Veröffentlichungen zu LLMs existieren seit über 20 Jahren.

Mal als Beispiel z.B. sowas:
https://journal.hep.com.cn/fcs/EN/10.1007/s11704-025-40672-2
https://arxiv.org/abs/1210.8440

Die Architektur und Rechenleistung dahinter haben sich halt in der Zeit stetig weiterentwickelt.
Meist lief das früher unter dem Buzzword „Machine Learning“. Dahinter versteckte sich in manchen Fällen dann ein LLM.

Was OpenAI und die Johns Hopkins dann über LLMs herausgefunden haben, ist, dass sie besser werden, je mehr Rechenleistung man im Training draufwirft, und wie da der Zusammenhang ist.
https://arxiv.org/pdf/2001.08361/1000

Das hat dann gewissermaßen die Handbremse gelöst und zu dem absurden Rechenzentrumsboom geführt.
 
  • Gefällt mir
Reaktionen: SweetOhm
STM64 schrieb:
Das hat dann gewissermaßen die Handbremse gelöst

Das kommt jetzt ein wenig so rüber als wäre der einzige Unterschied heutiger LLM im Vergleich zu den Anfängen die Skalierung der Rechenleistung (ich weiß das ist vermutlich nicht so gemeint).

Wichtig zu erwähnen ist insofern dass eine der entscheiden Architekturen, der Transformer (das T in GPT), 2017 von Google vorgestellt wurde.

Darauf aufbauend wurde GPT 1 dann 2018 veröffentlicht und für ChatGPT waren dann auch noch weitere Neuerungen wie die Selbstbewertung von Texten und daraus folgendes Selbsttraining nötig.
 
  • Gefällt mir
Reaktionen: the_IT_Guy und ascer
@STM64 das stimmt so nicht, da würde ich @Bright0001 zustimmen.

  1. Es gab zwar "LLMs" seit ~20 Jahren, aber in den 2000er i.d.R. <1M Parameter und einfachste Architektur, was dann im Ergebnis auch nicht großartig über z.B. typische tripled detection im NLP Bereich hinauskam. Dies kann man nur sehr schwerlich mit heutigen LLMs gleichsetzen (das wäre wie zu sagen, die CLI in MS DOS war eigentlich auch nichts anderes, als die RichGUIs die man heutzutage hat, nur halt weniger Pixel).
  2. Selbst in den 2010er befanden wir uns immer noch bei <100M Parametern und sehr primitiven Architekturen bzgl. der neuralen Netzwerke im Vergleich; auch hier war der Leistungsumfang also extrem stark eingeschränkt und nicht mit heutigen LLMs zu vergleichen
  3. 2020er LLMs setzen allesamt auf >100M Parameter und sehr komplexe NN Architektur; die meisten bekannten Modelle (ChatGPT, Gemini, ...) sind ja meist sogar >100B oder gar >1000B Parameter. Sowas auch nur irgendwie sinnvoll in eine NN Architektur zu packen war bis vor ein paar Jahren undenkbar und da sprechen wir nicht nur von der notwendigen Hardware, sondern auch der benötigten NN Theorie => vanishing gradient usw.
  4. Jedes moderne LLM und alles was wir heutzutage mit LLMs gleichsetzen, nutzt "Attention" und das initiale Paper, welches diese Technologie vorgestellt hat, war "Attention Is All You Need" von Google Brain in 2017. Erst damit kamen die (immer weiter entwickelten) Transformer auf, die heutzutage gleichbedeutend mit LLMs sind und in immer komplexerer und speziellerer Form in jedem LLM stecken. Das (also diese gesamte Technologie) gab es früher gar nicht.
 
  • Gefällt mir
Reaktionen: ksk23
läuft da denn schon DOOM drauf? ohne DOOM ist das keine ernsthafte News wert ^^ ;-)
ich meide übrigens META wie die Pest, solltet ihr auch
 
Zurück
Oben