News Pi AI HAT+ 2: Aufsteckbare 40 TOPS Gen-AI-Leistung für den Raspberry Pi 5

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
17.536
  • Gefällt mir
Reaktionen: FrankN84, Mcr-King, Mr Peanutbutter und 6 andere
Hier schon ein Review dazu:


Fazit für mich: Mähh Pi 5 mit 16 GB kaufen und man ist besser unterwegs - wenn auch mit mehr Stromverbrauch.
 
  • Gefällt mir
Reaktionen: FrankN84, Dimitri Kostrov, n8mahr und 18 andere
Ich kann mir kaum vorstellen, dass aus den 1.5b Parametern wirklich etwas Sinnvolles herauskommt...
 
  • Gefällt mir
Reaktionen: konkretor, DFFVB, Shad82 und 4 andere
Sehe ich auch so - der Sinn eines KI Beschleuniger Hat, der langsamer als der Pi ist, erschließt sich mir nicht so wirklich.

Es wird wohl Ausnahmesituationen geben, bei der Offloading auf separate Hardware mit eigenem RAM etwas umsetzbar macht, aber das wars dann auch...

aLanaMiau schrieb:
kann mir kaum vorstellen, dass aus den 1.5b Parametern wirklich etwas Sinnvolles herauskommt...
Klar, ein 'general purpose' LLM der Größe ist nur mäßig hilfreich. Aber wenn das neurale Netzwerk etwas spezialisierter ist kann man mit 1,5B Parametern schon viel machen.

Texterkennung, Gesichterkennung, Erkennung anderer Objekte in z.B. dem Stream einer Videoüberwachung sind da durchaus drin.
 
  • Gefällt mir
Reaktionen: Daddi89, tzwn, Mcr-King und 7 andere
Für Frigate NVR ist das Teil sicherlich super, für Chatbots finde ich es verschwendet.
 
  • Gefällt mir
Reaktionen: Saint81 und Haldi
Rickmer schrieb:
Klar, ein 'general purpose' LLM der Größe ist nur mäßig hilfreich. Aber wenn das neurale Netzwerk etwas spezialisierter ist kann man mit 1,5B Parametern schon viel machen.
Aber genau das sind doch die aufgeführten Modelle?

ModellParameters
DeepSeek-R1-Distill1,5 Milliarden
Llama3.21,0 Milliarden
Qwen2.5-Coder1,5 Milliarden
Qwen2.5-Instruct1,5 Milliarden
Qwen21,5 Milliarden
 
Kurz erwähnt, da passend dazu.

ASUS hat an der CES 2026 den portablen, PnP-fähigen ASUS UGen300 USB AI Accelerator, Hailo-10H, 8 GB LPDDR4, USB 3.1 Gen2 (10Gbps) vorgestellt.

ASUS UGen300 USB AI Accelerator.png


Handelt sich ja eins zu eins um denselben AI-Beschleuniger Hailo-10H (8 GB RAM) wie bei dem Raspberry Pi 5.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zebrahead, c9hris, Xood und 4 andere
gur_helios schrieb:
Kurz erwähnt, da passend dazu.

ASUS hat an der CES 2026 den portablen, PnP-fähigen ASUS UGen300 USB AI Accelerator, Hailo-10H, 8 GB LPDDR4, USB 3.1 Gen2 (10Gbps) vorgestellt.

Handelt sich ja eins zu eins um denselben AI-Beschleuniger Hailo-10H (8 GB RAM) wie bei dem Rasperry Pi 5.
Gar nicht mitbekommen.

Ich bin mal gespannt, ob es das Halio-10H wie das Hailo-8L auch als M.2 A+E Key geben wird.
Letzteres ist seit ein paar Wochen ausverkauft, was ein Indiz sein könnte
 
aLanaMiau schrieb:
Aber genau das sind doch die aufgeführten Modelle?
Bis auf Qwen2.5-Coder liest sich die Liste nach ziemlich generischen Chatbot-LLMs. Man kann die natürlich als Basis nehmen um sie für was bestimmtes zu trainieren. Die sind nicht schlecht (für ihre Größe), aber erstmal sind die nicht spezialisiert.
 
  • Gefällt mir
Reaktionen: Xes und Xood
Stubennerd schrieb:
Gar nicht mitbekommen.

Ich bin mal gespannt, ob es das Halio-10H wie das Hailo-8L auch als M.2 A+E Key geben wird.
Letzteres ist seit ein paar Wochen ausverkauft, was ein Indiz sein könnte
Bin auch nur zufällig darüber gestolpert.

Den Hailo-10H gibt es im M.2-Key M-Format. Siehe Datenblatt: Hailo-10H AI Accelerator

Überblick: Hailo-10H M.2 Generatives KI-Beschleunigungsmodul


Jedenfalls muss ich das Teil haben, wenn es dann mal erhältlich sein wird. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stubennerd
Interessant evtl. als lokaler Agent für Home Assistant Voice, ansonsten eher überschaubar im praktischen Nutzen. Ich schließe mich aber @Cool Master an, die Pi-5-Variante mit 16GByte universell nutzbarem RAM ist wesentlich sinnvoller.

Cool Master schrieb:
[...]
Fazit für mich: Mähh Pi 5 mit 16 GB kaufen und man ist besser unterwegs - wenn auch mit mehr Stromverbrauch.
 
  • Gefällt mir
Reaktionen: c9hris, Haldi, AlphaKaninchen und eine weitere Person
Für den Preis des AI HAT 2 + dem Pi5 kann man sich auch gleich das NVIDIA Jetson Orin Nano Super Developer Kit für 249$ kaufen und bekommt 67 TOPS INT8, also fast 3,5-fache Leistung von den 40 TOPS INT4 hier.
 
  • Gefällt mir
Reaktionen: FrankN84, matze313, konkretor und 7 andere
Finde ich nicht super beeindruckend. Hatte hier nen alten Fujitsu Fertig PC und darin werkelt eine gebrauchte RTX3050 6GB und die schafft ca. 55-60 TOPS (int8). Klar, die 3050 ist ein Witz gegenüber größeren Karten, aber Ministral 3 8b läuft darauf sehr gut. Auch gegenüber den hier verfügbaren wesentlichen kleinere 1,5b Modellen.
 
aLanaMiau schrieb:
Ich kann mir kaum vorstellen, dass aus den 1.5b Parametern wirklich etwas Sinnvolles herauskommt...
Vor allem nicht preiswert.
 
aLanaMiau schrieb:
Aber genau das sind doch die aufgeführten Modelle?
Diesbezüglich würde ich Jeff Geerling in seinem Review zustimmen: "Solution looking for a problem"...

Bloß weil's da steht heißt nicht, dass es Sinn macht. Nur, dass dem Hersteller nichts besseres eingefallen ist.
 
NDschambar schrieb:
Interessant evtl. als lokaler Agent für Home Assistant Voice, ansonsten eher überschaubar im praktischen Nutzen.

Wobei da ein dedizierter Pi, der in etwa gleich viel kostet, wohl mehr bringen würde.
 
Da man meines Wissens nach NVMe-SSDs und AI-Hat nicht gleichzeitig betreiben kann,
stellt sich mir die Frage nach dem Einsatz des AI-Hats nicht.
 
Moinsen, bin am überlegen ob ich auch langsam mit dem Thema anfangen.

Ich möchte keine Fette GPU und auch kein Jetson.

So ein PI als Homeserver hat schon was, und läuft bei mir für Cloud Services, der ist so versteckt das wenn Einbrecher die Wohnung leer räumen würden, wäre der PI noch vorhanden. ,,,, Dazu halt noch die NPU

Wie ich verstehe sind es Video KI usw die mit dem Teil ganz gut laufen.

Aber geht da auch ein Text Chatbot mit? Meinen Text , meine Formulierung und Gedanken Teile ich nicht mit ChatGPT oder Gemini, auser die Bezahlen mit mein Leben
.

Ich würde aber Gerne eine Chatbot mit meinen Mails und Bewerbungen und andren von mir geschriebenene Text füttern. Weiteres Zraining aufh gerne mit GPIU.

Aber kann diese NPU auch einen Text generierer hosten?

Es geht nicht um den Universalen Chatbot der alle Fragen beantwortet. Eher um Kündigungsschreiben , Behördliche Post , oder auch ne Bewerbung schreiben kann? Ich hab halt voel geschrieben und gespeichert.

Schafft das so eine NPU? Gibt es da Empfehlungen für Modelle die einigermaßen auf gut versteckbarer Hardware wie ein PI 5 Laufen? Kein Interesse an Thin Clients die sind zu Groß.
Ergänzung ()

Wishbringer schrieb:
Da man meines Wissens nach NVMe-SSDs und AI-Hat nicht gleichzeitig betreiben kann,
stellt sich mir die Frage nach dem Einsatz des AI-Hats nicht.


Es gibt ja auch PCI Hats mt mehreren Ausgängen und das der PI nicht die super. Performance hat ist klar. Die sind halt nicht für dauerhafte Workloads oder mehere user. Die Dinger sind geil fur single users, vlt auch 2 user, um services zi nutzen die viel idle sind... PaperlessNG , StirlingPDF, Homeassistent, PiHole, Synchthing laufen gut im idle u d mam kann sie bei Bedarf benutzen.

Wenn ich ne Maschine für Wprkload benötige, ist der PI eher die schlechte Wahl.

Zumindest in meinem Scenario sehe ich im geteilten PCI kein Problem.
 
Zuletzt bearbeitet:
Zurück
Oben