News AMD Ryzen AI 5 330: APU kombiniert einen großen Zen-Kern mit starker NPU

Kann ein großteil des RAM für KZi Anwendungen genutzt werden, wie bei Strix Halo?
2x 48GB RAM dann 64GB für große LLM?
 
MaverickM schrieb:
Daher ist eine dedizierte NPU als PCIe Steckkarte eben komplett unsinnig.
Und warum verbaut AMD und Intel dann eine extra NPU im Prozessor? Den Platz könnten die sich laut deiner Aussage doch sparen und einfach die Grafikeinheit vergrößern. Das wäre ja dann sinnvoller. Da scheint es also doch noch einen Unterschied zu geben, weshalb sich der Mehraufwand lohnt
 
@AGB-Leser In einem Wort: Effizienz

NPUs sind effizienter als GPUs. Gerade mobil ist das höchst relevant, im Dekstop (wo man PCIe-Steckplätze hat), spielt das viel weniger eine Rolle.
 
AGB-Leser schrieb:
Und warum verbaut AMD und Intel dann eine extra NPU im Prozessor?

Weil Microsoft das für ihren blöden Copilot+ Kram so haben will.
Sollte doch zu Denken geben, dass AMD im Desktop keine NPUs verbaut. ;)
 
Kommt sicher noch. Oder halt extern, für mehr Bumms, was mir lieber wäre. Dann könnte ich vielleicht auch was mit anfangen
 
Yosup schrieb:
Und genau für diese Zielgruppe sind NPUs ideal.

RKCPU schrieb:
@Yosub
Genau, die Hersteller wissen, was sich aktuell gut verkauft.

In meinem Umfeld hab ich eher den Eindruck das ChatGPT und Deepseek gerne über App oder Browser für einigermassen komplizierte aber nicht allzupersönliche Auskünfte oder Arbeiten genutzt werden. Also rein serverseitig.

Für die lokalen AI Anwendungen sehe ich relativ wenig Nachfrage. So Sachen wie den Microsoft Copilot will kaum jemand, weil sie darin wenig Mehwert aber ein Risiko sehen ausspioniert zu werden. Viele deaktivieren ihn in Windows 11 und einige bleiben deshalb sogar lieber solange es geht auf Windows 10.
 
Ich würde KI-Sachen nutzen, wenn die lokal auf meinem Rechner laufen und die Hardware auch wirklich nutzen. Ansonsten verzichte ich drauf. Vielleicht nutzen ja Spieleentwickler die NPU für eine bessere Intelligenz der Gegner, das würde das Spiel spannender machen
 
RealMax123 schrieb:
In meinem Umfeld hab ich eher den Eindruck das ChatGPT und Deepseek gerne über App oder Browser für einigermassen komplizierte aber nicht allzupersönliche Auskünfte oder Arbeiten genutzt werden. Also rein serverseitig.

Für die lokalen AI Anwendungen sehe ich relativ wenig Nachfrage.
Sehe ich genauso. Die Frage ist, wie das in ein paar Jahren aussieht, und AMD konzipiert so eine CPU ja auch nicht für das Jahr 2025, sondern für die künftigen Jahre. Und damit meine ich nicht mal das Verkaufsfenster, sondern die angedachte Nutzungsdauer seitens der Anwender.

Letztendlich sollten wir auch nicht vergessen, dass wir es hier mit einem Henne-Ei-Problem zu tun haben. Das Argument, dass kaum Software von NPUs profitiert und diese daher schlicht überflüssig wäre konnte bisher bei praktisch jeder Innovation angeführt werden, von den ganzen Befehlssatzerweiterungen bis hin zurück zur klassischen FPU (krass, wie lange ich diese Abkürzung nicht mehr verwendet habe!), Multicores, zusätzliche GP-Register oder deren Verbreiterung auf 64 Bit. Von GPUs ganz zu schweigen. War alles am Anfang für die Masse überflüssig wie ein Kropf, da es keine Software dafür gab.
 
Multicore war bevor es in Desktops und Notebooks kam schon bei Workstations und Servern etabliert, und man hat beim Multitasking sofort davn profitiert.

Neue Befehlssätze kamen oft eher wirklich erstmal nur als Beiwerk zu modernerer Architektur, mehr Takt, mehr Cores, mehr Cache, etc. und wurden erst später wirklich genutzt.

Und x86-84 wurde vorallem nötig weil absehbar war das 4GB irgendwann mal knapp werden.

Eine NPU bzw. relativ starke NPU ist heutzutage etwas das man natürlich gerne mitnimmt wenn sie quasi kostenlos dabei ist, aber kein kaufentscheidendes Zugpferd.
 
RealMax123 schrieb:
Und x86-84 wurde vor allem nötig weil absehbar war das 4GB irgendwann mal knapp werden.
Es gab teils sogar Abneigung gegen x86-64, obwohl es einen sanften Wechsel ermöglichte.
Heute sind im Smartphone schon oft fast 4 GB RAM belegt ...
RealMax123 schrieb:
Eine NPU bzw. relativ starke NPU ist heutzutage etwas das man natürlich gerne mitnimmt wenn sie quasi kostenlos dabei ist, aber kein kaufentscheidendes Zugpferd.
Die lokale NPU ist bzgl. Datenschutz viel besser. Zudem auch Potential zur Bildoptimierung beim Upscaling 3D Games auf schwacher iGPU-Hardware.
 
RKCPU schrieb:
Die lokale NPU ist bzgl. Datenschutz viel besser.
Das ist Ansichtssache.

Natürlich weis man bei Chat-GPT und DeepSeek nicht was die mit den Anfragen und Daten machen, die durch die Nutzung entstehen. Aber man kann immer noch selbst entscheiden welche Anfragen man Chat-GPU und DeepSeek stellt und welche Daten man ihnen überlässt.

Ein NPU gestützter Copilot hingegen kann sämtliche Nutzung mitlauschen, Teile davon zwischenspeichern, auswerten und anschliessend "nachhause telefonieren".

Sicher wäre das konzept nur wenn es Open-Source Quelltext zum selbstcompilieren wäre, wo man sich sicher sein könnte was im Quelltext steht. Aber das wäre für die Durchschnittsnutzer zu kopliziert. Und vermutlich wird auch ein Copilot nie völlik lokal lauen können, sondern immer noch servergestützte Teile für kompliziertere Aufgaben brauchen.

RKCPU schrieb:
Es gab teils sogar Abneigung gegen x86-64, obwohl es einen sanften Wechsel ermöglichte.
Naja, x86-64 ermöglichte zwar einerseits einen sanften Wechsel, anderseits hat es aber eben auch eine wirkliche Innovation wie IA64 verhindert.

RKCPU schrieb:
Heute sind im Smartphone schon oft fast 4 GB RAM belegt ...
Aber eigentlich nur weil heutige Betriebssysteme, Programme und Apps so verschwenderisch mit Speicher umgehen.

Anno 2012 hat man auf einem Notebook mit Core 2 Q9000, GeForce GT 130M 1GB VRAM und 4GB RAM mit Windows 7 32-Bit und einem iPhone 4 S mit gerademal 512 MB RAM auch schon fast soviel gemacht wie man heute mit Notebooks und Smartphones macht.
 
RealMax123 schrieb:
Ein NPU gestützter Copilot hingegen kann sämtliche Nutzung mitlauschen, Teile davon zwischenspeichern, auswerten und anschliessend "nachhause telefonieren".
Solange die Kunden da nicht massiv Veto einlegen

RealMax123 schrieb:
Naja, x86-64 ermöglichte zwar einerseits einen sanften Wechsel, anderseits hat es aber eben auch eine wirkliche Innovation wie IA64 verhindert.
64-Bit-Prozessor (AMD64 / iA-64) https://share.google/ASjM9aPZqEKD7q4JU

Die hohe Strombedarf IA64 Hätte Notebooks bis thin clients unmöglich gemacht.
Wir hätten so heute nur ARM und Android in diesem Segment.
Auch Server IA64 wären daher durch ARM unter gegangen.

RealMax123 schrieb:
Aber eigentlich nur weil heutige Betriebssysteme, Programme und Apps so verschwenderisch mit Speicher umgehen.
Bei Android nicht anders, aber 128GByte Flash kostet kaum noch Geld.
 
  • Gefällt mir
Reaktionen: RealMax123
RealMax123 schrieb:
anderseits hat es aber eben auch eine wirkliche Innovation wie IA64 verhindert.
Ich habe IA64 als verschwenderisch in Erinnerung, auch wenn man das nicht ausreichend beurteilen kann, weil es nicht gerade viele Produkte damit gab.
Das wesentlich größere Problem, das ich sehe: Wer hätte sonst noch IA64 Chips produzieren können? Im Server-Bereich ist das weniger relevant. Heutzutage kann das x86, ARM oder auch PowerPC sein, je nach Bedarf. Wäre IA64 in den Endkundenmarkt gelangt (ausgeschlossen, weil ja nicht passiert, aber als hypothetisches Experiment), ohne Konkurrenz durch AMD wäre Intel zerschlagen worden.

RKCPU schrieb:
Solange die Kunden da nicht massiv Veto einlegen
Sofern genug Kunden davon Wind bekommen, oder die Privatsphäre-Verletzung groß genug wäre.
Ansonsten ist es wahrscheinlich, dass nicht allzu viel passieren würde.

RKCPU schrieb:
Die hohe Strombedarf IA64 Hätte Notebooks bis thin clients unmöglich gemacht.
Fairerweise muss man auch sagen, dass man nicht sagen, wie sich IA64 weiterentwickelt hätte, wenn Intel stur weiter dahintergestanden wäre. Aber dass sie es begraben haben, spricht natürlich dafür, dass Intel intern nichts Vernünftiges weitergebracht hat.
Das ist so eine Null-Aussage, aber ich wollte es dennoch erwähnt haben.
 
IA64 war langsamer als x86 Software, besonders die x86 -Emulation war schlecht.
X86 hat sehr kompakten Code, es stehen mehr Instruktionen im Cache, bei gleicher Transferrate gehen auch mehr Anweisungen in den Cache rein.
Ein Big.Little Konzert wäre mit IA64 kaum vorstellbar, ARM hätte Intel daher rasch platt gemacht.

Folgefehler, der Übergang 16 Bit x86 zu 32 Bit war auch geprägt, dass Imtel x86 da schon aufgeben wollte.
Klar, damals fehlte die Erfahrung, wie später bei AMD für x86-64, wie man möglichst effizient beide Welten verbinden kann.

Wenig genutzt wurde das Feature, x86 Software in 32 Bit bis 4 GByte je Programm zu geben. Wir hätten so bis heute nicht den Bedarf gehabt Software auf 64 Bit umzustellen.
 
RKCPU schrieb:
64-Bit-Prozessor (AMD64 / iA-64) https://share.google/ASjM9aPZqEKD7q4JU

Die hohe Strombedarf IA64 Hätte Notebooks bis thin clients unmöglich gemacht.
Wir hätten so heute nur ARM und Android in diesem Segment.
Auch Server IA64 wären daher durch ARM unter gegangen.

Bei Android nicht anders, aber 128GByte Flash kostet kaum noch Geld.

Deinorius schrieb:
Ich habe IA64 als verschwenderisch in Erinnerung, auch wenn man das nicht ausreichend beurteilen kann, weil es nicht gerade viele Produkte damit gab.
Das wesentlich größere Problem, das ich sehe: Wer hätte sonst noch IA64 Chips produzieren können? Im Server-Bereich ist das weniger relevant. Heutzutage kann das x86, ARM oder auch PowerPC sein, je nach Bedarf. Wäre IA64 in den Endkundenmarkt gelangt (ausgeschlossen, weil ja nicht passiert, aber als hypothetisches Experiment), ohne Konkurrenz durch AMD wäre Intel zerschlagen worden.

Fairerweise muss man auch sagen, dass man nicht sagen, wie sich IA64 weiterentwickelt hätte, wenn Intel stur weiter dahintergestanden wäre. Aber dass sie es begraben haben, spricht natürlich dafür, dass Intel intern nichts Vernünftiges weitergebracht hat.
Das ist so eine Null-Aussage, aber ich wollte es dennoch erwähnt haben.

Das ursprüngliche IA64 Konzept wäre natürlich für Notebooks ungeeignet gewesen. Aber ich denke da hätte es früher oder später schon noch eine Lösung gegegen.

So gab es später die Transmeta VLIW Prozessoren, erst den Crusoe und dann den Efficeon. Die hatten zwar auch einen x86 Befehlssatz, mit VLIW hätte man IA64 genauso realisieren können wie x86. Vielleicht sogar etwas effektiver.

Vielleicht hätte es auch Windows für ARM durchgesetzt. Das gibt es nicht erst seit Windows 10, sondern es gab ja schon das von Windows 8 abgeleitete Windows RT das auf Geräten wie dem Nokia Lumia 2520 Tablet lief.
 
MaverickM schrieb:
Weil Microsoft das für ihren blöden Copilot+ Kram so haben will.
Sollte doch zu Denken geben, dass AMD im Desktop keine NPUs verbaut. ;)
Erstens gibt es die 8000G, zweitens wird Gorgon Point kommen und drittens das warten wir Zen 6 Mal in Ruhe ab.

Klar hat David McAfee bei Toms Hardware gesagt, dass der Vorteil der NPU ihre hohe Effizienz ist und dass dieser im Desktop nicht zum tragen kommt. Aber was soll er selbst erzählen, wenn er bei Desktop Ryzen 7000 und Ryzen 9000 keine NPU anbeten kann?

Das Problem ist im übrigen nicht die NPU. Das Problem ist, dass AMD Client Mal wieder ein Hardware implementiert hat und sich nicht darum gekümmert hat, dass sie auch programmiert werden kann. Obwohl AMD Embedded dazu sehr viel Material hatte.

BTW.

RealMax123 schrieb:
Ein NPU gestützter Copilot hingegen kann sämtliche Nutzung mitlauschen, Teile davon zwischenspeichern, auswerten und anschliessend "nachhause telefonieren".
Copilot ist eine Anwendung.

Wenn man nachhause telefonieren bei Copilot als valides Argument sieht, darf man kein Microsoft Windows einsetzen. Es nur gegen den Copilot zu verwenden ist lächerlich.

Deinorius schrieb:
Fairerweise muss man auch sagen, dass man nicht sagen, wie sich IA64 weiterentwickelt hätte, wenn Intel stur weiter dahintergestanden wäre. Aber dass sie es begraben haben, spricht natürlich dafür, dass Intel intern nichts Vernünftiges weitergebracht hat.
Das VLIW Konzept hat AFAIU schlicht und einfach nicht wie erwartet funktioniert.

Aber das war schon vor dem Launch 2001 abzusehen. Itanium und IA-64 waren ein Mega-Flop:
1752999237289.png


Wenn Itanium funktioniert hätte, wäre früher oder später

Und hätte HP nicht auf IA-64 gesetzt, wäre es schon viel früher begraben worden. Das gute für Intel war, dass HP seine HP-PA für Itanium aus Abstellgleis geschoben hat.

Was mich wirklich interessiert ist was passiert wäre, wenn HP HP-PA beibehalten hätte und bei TSMC hätte fertigen lassen.

RKCPU schrieb:
Die hohe Strombedarf IA64 Hätte Notebooks bis thin clients unmöglich gemacht.
Itanium war als CPU für Server konzipiert. Itanium sollte was die Performance anbelangt alles in Grund und Boden stampfen.

Intel wollte X86 vorerst als Architektur für den Client beibehalten.
RKCPU schrieb:
IA64 war langsamer als x86 Software, besonders die x86 -Emulation war schlecht.
Itanium hat die Erwartungen an die Performance nicht einmal im Ansatz erfüllen können.

Itanium war ein riesen Flop.
RKCPU schrieb:
AFAIU erfasst der Artikel das Problem von IA64 nicht richtig.

AFAUI ist die Möglichkeit alles über den Compiler zu machen nur vordergründig ein Vorteil.

Die Realität ist dass die Hardware zur Laufzeit entscheiden kann, viel bessere Informationen hat und deshalb in meist bessere Entscheidungen als der Compiler trifft.
 
Deinorius schrieb:
Deutlich? DAS halte ich für ein Gerücht und Ausnahmen bestätigen nur die Regel, sie stellen diese nicht dar.
Natürlich nicht überall, da Spiele unterschiedlich auf Speicherbandbreite reagieren. Im Vergleich zu mehr TDP oder mehr GPU-Takt die kaum was bringen hat Speicher-OC aber die eindeutig besseren Resultate, immerhin rund 5% mehr fps in CP2077.
Deinorius schrieb:
Es gibt den Ryzen Z2A, welcher im Grunde wohl einfach Van Gogh ist. Ich glaube, etwas von einem Produkt gelesen zu haben, aber wahrscheinlich verwechsle ich das wohl mit dem Ryzen Z2 Go ... AMD und Produktbenennung mal wieder ...
Ryzen Z2A ist Sephiroth (Die-Shrink von Aerith/Van Gogh ohne NPU)
Ryzen Z2 Go ist Rembrandt
 
"Gorgon Point 3: Bis zu 6 Kerne"
Also wohl auch nur 2-4 CU nativ, aber große AI NPU ?!.
Die OEMs scheinen so mehr erlösen zu können als ohne AI, AMD mehr VK-Preis schaffen. Da AMD schwach ist im Notebook-Markt wird man zur Vergrößerung Marktanteil auch eher auf Rendite verteilen.

Vielleicht kommt dann das kleinste Modell ald "Ryzen 3 AI" ?
 
Zurück
Oben