News Pi AI HAT+ 2: Aufsteckbare 40 TOPS Gen-AI-Leistung für den Raspberry Pi 5

Jetzt wo die Coral ja endgütlig end of Life sind und kaum mehr software updates bekommt durchaus interessant.


aLanaMiau schrieb:
Ich kann mir kaum vorstellen, dass aus den 1.5b Parametern wirklich etwas Sinnvolles herauskommt...
Die Dinger sind ja auch kaum für LLM gedacht sondern hochspezialisierte Modelle ODER AI Video Erkennung in Echtzeit.

gur_helios schrieb:
Ohhh interessante sache.
Wir haben hier Frigate am laufen auf nem 10100T mit reiner CPU power.
Der Coral im A+E WiFi Slot wird nicht erkannt :( HP Prodesk G6 Mini.
Aber ich tippe so auf 80-130$ und nicht die 30$ eines Corals...

Picard87 schrieb:
e ine gebrauchte RTX3050 6GB
Die 40-100W verbraucht je nach Zustand und nicht maximal 8-10W wie so ein ding hier...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DFFVB
Haldi schrieb:
Ohhh interessante sache.
Wir haben hier Frigate am laufen auf nem 10100T mit reiner CPU power.
Der Coral im A+E WiFi Slot wird nicht erkannt :( HP Prodesk G6 Mini.
Aber ich tippe so auf 80-130$ und nicht die 30$ eines Corals...
Warte schon gespannt auf den Marktstart. Habe auch bei ASUS Schweiz angerufen (die Anrufe werden nach ASUS Deutschland weitergeleitet) sowie mich mit ihnen per E-Mail in Verbindung gesetzt. ASUS konnte jedoch keinen Termin für die Markteinführung nennen und mir wurde geraten, immer mal wieder im entsprechenden ASUS-Store hinsichtlich der Verfügbarkeit nachzuschauen.
 
  • Gefällt mir
Reaktionen: soiz und Haldi
Picard87 schrieb:
Finde ich nicht super beeindruckend. Hatte hier nen alten Fujitsu Fertig PC und darin werkelt eine gebrauchte RTX3050 6GB und die schafft ca. 55-60 TOPS (int8).
größe und Stromverbrauch sind aber auch ne ganz andere Kategorie
 
  • Gefällt mir
Reaktionen: madmax2010
Rickmer schrieb:
Texterkennung, Gesichterkennung, Erkennung anderer Objekte in z.B. dem Stream einer Videoüberwachung sind da durchaus drin.
oder RAG
aber was den Sinn des HAT angeht stimme ich dir voll zu.
Und am ende limitiert doch ohnehin die Speicherbandbreite, nicht die OPS

atze303 schrieb:
Aber kann diese NPU auch einen Text generierer hosten?
absolut. Freies texten, wenn du ahnliche dokumente als beispiel lieferst geht super.
Habe das seit ~2 jahren in immer besserer form auf meinem NanoPi laufen.
Whisper+Postgres mit GPVector und PGAI, dazu ein paar skripte und Qwen3 (4B, zugegegen) und schon hast du einen ganz guten Sprachassistenten

wird jedes release etwas besser :)
Ergänzung ()

Haldi schrieb:
ODER AI Video Erkennung in Echtzeit.
wobei da 6TOPS reichen um mit yolov5 irgendwie 150-200 Gesicher pro sekunde zu erkennen

Kraeuterbutter schrieb:
größe und Stromverbrauch sind aber auch ne ganz andere Kategorie
ich habe das zuletzt im sommer durchgerechnert, aber zu der zeit war TOPS/Watt bei einer RTX5090 sogar besser. Bringt halt nichts, wenn man die nicht ausreizen kann oder Das Budget nicht hat
 
madmax2010 schrieb:
ich habe das zuletzt im sommer durchgerechnert, aber zu der zeit war TOPS/Watt bei einer RTX5090 sogar besser. Bringt halt nichts, wenn man die nicht ausreizen kann oder Das Budget nicht hat
das ist es eben..

wenn du so ne Homeassist, Gesichtserkennung, Sprachmodul etc. etc. hast:
da läuft das Teil 24/7
und wir am Tag vielleicht paar Minuten tatsächlich genutzt..

wenn der Fertigpc m it der RTX 3050 dann
23h 30min am Tag im Idle mit 50Watt läuft
sind das in 5 Jahren z.b. 900 Euro Stromkosten
für den Idle-Betrieb..

da könnte mit nem leichtfüßigeren Teil, das im Idle unter 10Watt braucht halt ordentlich was eingespart werden
 
  • Gefällt mir
Reaktionen: madmax2010
madmax2010 schrieb:
wobei da 6TOPS reichen um mit yolov5 irgendwie 150-200 Gesicher pro sekunde zu erkennen
Wenn sogar nen ESP32 Gesichtserkennung in weniger als ner Sekunde hin bekommt^^

madmax2010 schrieb:
Habe das seit ~2 jahren in immer besserer form auf meinem NanoPi laufen.
Whisper+Postgres mit GPVector und PGAI, dazu ein paar skripte und Qwen3 (4B, zugegegen) und schon hast du einen ganz guten Sprachassistenten
Für HomeAssistant voice Satellites oder was?
Habs 2-3x versucht und mich drüber aufgeregt das nie die Antworten kamen die ich wollte.
 
  • Gefällt mir
Reaktionen: madmax2010
Haldi schrieb:
Für HomeAssistant voice Satellites oder was?
mehr Ghetto.. gibt fuer Rockchip NPUs inzwischen ein toolkit, dass eine OLLAMA Kompatible API bereitstellt.
-> https://github.com/NotPunchnox/rkllama
Meine emails, todos und relevante doku habe ich in der Postgres datenbank

ich rede -> Whisper transkribiert -> antwort wird je nach kontext generiert (email draft schreiben, email vorlesen, todos fuer heute vorlesen, sehr simple Sachen)
Es ist ein Haufen hacky python, der meist irgendwann um 3 Uhr morgens entstanden ist. tut ganz gut, ich muss das nur mal in Homeassistant pressen und irgendwie paketieren..
 
  • Gefällt mir
Reaktionen: Tsu und Haldi
140€ ist unfassbar viel Geld für quasi keine Rechenleistung.
 
  • Gefällt mir
Reaktionen: Tsu
Ich hatte mir dieses Thema PI+AI ebenfalls letztes Jahr angeschaut. Leider konnte mich das PI Ding so gar nicht abholen weil das vorherige Modul noch weniger Leistung hatte und man dort auch schon nach 80-90 Euro frage.

Dann bin ich beim Jetson Orin Nano (Super?) gelandet. Mit 7w im Eco Modus aber bis zu 60 TOPS (max Power Setting) seit der letzten Firmware. Mit eine SSD (2280 Slot, der 2. 2230/42er is noch frei) drin und ebenfalls 8GB Memory (16 wären auch schön gewesen). Modelle wie Gemma3 oder Qwen, Deepseek bis 7b verarbeitet es ohen Probleme. Power kann man mit bis zu 25W erhöhen. und inkl. Case und SD card habe ich mir das Set für unter 300 zusammengestellt. eine "ältere" kleine SSD mit 500 GB hatte ich noch von Samsung aus meinem Ryzen 1st Gen über. Das ist nun mein kleiner heimischer chatbot mit ollama und OpenwebUI etc im Homelab.
 
  • Gefällt mir
Reaktionen: Xood
Absolut richtig, alle wichtigen Punkte die mir beim Lesen in den Kopf gekommen sind wurden zwar bereits genannt, also schreib ich einfach meine best-of already posted:
1. Allgemeine Preis/Leistung mangelhaft
2. Best-Case ist mit Figate oder anderen Vision-Applikationen
(ich habe auch einen Jetson nano dafür)
3. Bei allem was 24/7 läuft sollte man extra auf den Stromverbrauch achten

Damit der neue Hat gegenüber anderen Lösungen Konkurrenzfähig wird muss der Preis erst Mal fallen, sonst sind es nur die Enthusiasten und Fans die zuschlagen.

Ich hab letztens übrigens ein super energieeffizientes Setup gefunden für Low Prio Objektüberwachung. Statt dediziert Frigate in Realtime wie daheim, hab ich mir ne Reolink 823 so konfiguriert, das sie bei Erkennung die Fotos und Video an ein NAS schickt, auf dem die Personenerkennung drüber rödelt. Das hat zwar ne Verzögerung im Vergleich zum direkten Alert via Kamera-Erkennung, kann aber direkt alle Alerts von bekannten Personen aus filtern, denn die will ich ja nicht überwachen, sondern nur Fremde auf dem Grundstück.
 
  • Gefällt mir
Reaktionen: Xood
Saint81 schrieb:
Ich hab letztens übrigens ein super energieeffizientes Setup gefunden
Wie fett muss der Zoom der Kameras sein um Gesichter effizient zu erkennen? Hast du eine Doppelkamera? eine Fest und mit PTZ Zoom für Gesichtserkennung die automatisch trackt?
Oder lässt du einfach das 4k Bild in die Erkennung?
 
atze303 schrieb:
Es gibt ja auch PCI Hats mt mehreren Ausgängen
Das ist dann ein Hat mit mehreren Anschlüssen für Peripherie, oder? Eine Möglichkeit das irgendwie zu verketten gibt es nicht? Weil oft will man ja eine SSD haben, aber dadurch verliert der Raspberry den größten Teil seiner IO-Fähigkeiten.

Bei dem Punkt bin ich bei der GPIO-Leiste:
Ich habe schon Hats gesehen, die scheinbar nicht alle IO-PINs belegt haben.

Wofür brauchen diese Hats die GPIO Pins überhaupt? Selbst, wenn die nicht voll belegt ist, führt der Hat dann dazu, dass es physikalisch mit anderen Erweiterungen nicht mehr kompatibel ist. Ich glaube, wenn man privat etwas bastelt, könnte man die Pins noch an die richtige Stelle bekommen.
Ergänzung ()

Haldi schrieb:
Wenn sogar nen ESP32 Gesichtserkennung in weniger als ner Sekunde hin bekommt^^
Du meinst es al prinzipielle Aufgabe, oder? Weil für viele Anwendungen fehlt einem dann der RAM für die Anwendung oder zum Speichern vom Bild ^^.
 
Gibt's es eigentlich eine PCIe NPU? Das mit der Asus USB Lösung ist interessant zu wissen.
 
aLanaMiau schrieb:
Ich kann mir kaum vorstellen, dass aus den 1.5b Parametern wirklich etwas Sinnvolles herauskommt...
Rickmer schrieb:
Klar, ein 'general purpose' LLM der Größe ist nur mäßig hilfreich.
Haldi schrieb:
Die Dinger sind ja auch kaum für LLM gedacht sondern hochspezialisierte Modelle ODER AI Video Erkennung in Echtzeit.
Ich glaub die Teile werden massiv unterschätzt. Für viele, wenn nicht die meisten Prompts von "Allerweltsnutzern", die damit nicht arbeiten, sind sie absolut brauchbar.

Qwen2.5-1.5B:
2026-01-17_11h37_54.png


2026-01-17_11h37_37.png
Das sind vanilla Responses ohne jegliches Feintuning meinerseits, auch kein Ändern der Templates, Instructions oder sonstiges.

holdes schrieb:
für Chatbots finde ich es verschwendet.
Also obs das Geld wert ist, weiß ich nicht, aber ich hätte ja eher gesagt, dass es sich sogar ziemlich gut dafür eignet. Ein kleines Model angebunden an einen Telegram-Account, und du hast einen privaten und "kostenlosen" Chatbot, den du leicht in der Familie verteilen kannst, selbst wenn jene 0 technisches Know-How hat.

atze303 schrieb:
Ich würde aber Gerne eine Chatbot mit meinen Mails und Bewerbungen und andren von mir geschriebenene Text füttern. Weiteres Zraining aufh gerne mit GPIU.
Hast du denn irgendein technisches Fundament oder Programmiererfahrung? Modelle trainieren ist eine andere Hausnummer als diese nur lokal laufen zu lassen, und wenn du bei 0 startest, dann machst du das nicht an einem Nachmittag.

Du kommst schneller ans Ziel, wenn du einem fertigen Modell deinen Kram im Kontext zur Verfügung stellst - aber da brauchts halt tatsächlich ordentlich Speicher, also die dicke GPU oder eine APU wie die letzten Ryzens.
 
atze303 schrieb:
um services zi nutzen die viel idle sind... PaperlessNG , StirlingPDF
Den Teil habe ich nicht verstanden. Was machen Leute mit PDF auf dem Raspberry?
PaperlessNG höre ich auch zum ersten Mal, da kann ich mir vorstellen, dass man eine Datenbank hat, auf die man zugreifen will. Sonst kann man das ja auf dem PC oder Laptop direkt nutzen, wenn man ein PDF bearbeitet und ist vermutlich sogar schneller fertig.
 
Bright0001 schrieb:
Alle interessanten Usecases die der ausgespuckt hat sind mit dem von mir genannten 'general purpose' nicht vereinbar.

Die Punkte, die ich 'general purpose' nennen würde, wären "Customer Service Chatbot" oder "Virtual Assistant", welches nachweislich nichtmals die großen Modelle sauber schaffen, geschweige denn die tiny LLMs.

Dass es spezialisierte neurale Netzwerke gibt die mit 1-2B Parameter halbe Wunder schaffen steht außer Zweifel. Aber da tue ich mir immernoch schwer, ein Anwendungsscenario zu sehen, das auf diesem Pi Hat laufen muss statt auf einem dedizierten Edge Device oder einfach dem Pi selbst.
 
  • Gefällt mir
Reaktionen: madmax2010 und Haldi
Bright0001 schrieb:
Für viele, wenn nicht die meisten Prompts von "Allerweltsnutzern", die damit nicht arbeiten, sind sie absolut brauchbar.
Ich rege mich schon dauernd über die Grossen KI Modelle auf....
Wenn man keinen Blassen hat hört sich das ja gut an.
Aber sobald man Ahnung von einem Thema hat merkt man wie viel Schund die Halluzinieren. Für aufgaben wie Programmieren oder Fotoshop wo man Instant die Resultate sieht/hat und nachbessern kann ist das ja egal.
Aber wer würde denn Noch ein Navi benutzen wenn es jedes dritte man an den Falschen Ort fährt oder den doppelt so langen Weg fährt?


INe5xIlium schrieb:
Was machen Leute mit PDF auf dem Raspberry?
PaperlessNG höre ich auch zum ersten Mal, da kann ich mir vorstellen, dass man eine Datenbank hat, auf die man zugreifen will. Sonst kann man das ja auf dem PC oder Laptop direkt nutzen, wenn man ein PDF bearbeitet und ist vermutlich sogar schneller fertig.
Stirling PDF ist nicht zum "bearbeiten" von PDFs sondern zum Zusammenfügen/Seiten extrahieren.
Besonders auf der Arbeit wo man nicht überall Admin rechte zum installieren von Software hat, oder nicht unbedingt PDF's auf völlig vertrauenswürdige Homepages die garantiert alles lokal erledigen hochladen möchte, hilft ein selbst gehostetes PDF Tool schon.
Paperless ist bequem wenn es 24/7 läuft.
Nie mehr extra PC aufstarten um ein Dokument zu scannen oder ein Rechnung abzulegen. Einfach kurz vom Handy aus erledigen. Dann wird das ganze automatisch getaggt und du findest alles wieder
 
  • Gefällt mir
Reaktionen: madmax2010 und INe5xIlium
Rickmer schrieb:
Alle interessanten Usecases die der ausgespuckt hat sind mit dem von mir genannten 'general purpose' nicht vereinbar.
Mir gings nicht darum die generierten Beispiele zu bringen, sondern allgemein zu zeigen, dass das Teil ordentliche Antworten generieren kann.

Rickmer schrieb:
Die Punkte, die ich 'general purpose' nennen würde, wären "Customer Service Chatbot" oder "Virtual Assistant", welches nachweislich nichtmals die großen Modelle sauber schaffen, geschweige denn die tiny LLMs.
Also einerseits widerspricht sich das imo ebenfalls - Kundensupport ist schon ein ziemlich spezifischer Fall - andererseits wird dein Punkt dann ja zur Tautologie, wenn selbst die großen Modelle deine Ansprüche nicht erfüllen können.

Haldi schrieb:
Aber sobald man Ahnung von einem Thema hat merkt man wie viel Schund die Halluzinieren. Für aufgaben wie Programmieren oder Fotoshop wo man Instant die Resultate sieht/hat und nachbessern kann ist das ja egal.
Aber wer würde denn Noch ein Navi benutzen wenn es jedes dritte man an den Falschen Ort fährt oder den doppelt so langen Weg fährt?
Also wenn die Dinger Quatsch-Code generieren ist mir das ganz sicher nicht egal, aber das ist ne andere Diskussion. :D

Der Punkt mit den Halluzinationen ist ein generelles Problem, man ist ja nicht plötzlich von der eigenen Denkpflicht entbunden, nur weil das Modell 300 statt 3 Milliarden Parameter hat.

Alles, was ich sagen will, ist: Für einfache Allerweltsfragen, wie sie abseits des produktiven Einsatzes auftauchen, sind auch kleine Modelle eine brauchbare Alternative. Es braucht halt nicht viel um Tante Erna zu erklären wie man den Router neu-startet, was die Hauptstadt von Uruguay ist, und ob Traubenzucker wirklich aus Trauben kommt. Ich glaub als Technik-affiner Mensch vergisst man schnell, wie der Normalbürger einen Chatbot im Alltag eigentlich nutzt.

Und nur der Vollständigkeit halber: Natürlich sollte man keiner KI blind vertrauen. Also auch den großen nicht. LLMs sind prinzipbedingt eher ungeeignet Fakten und Detailfragen korrekt zu beantworten, denn bei jeder Antwort wird (fast) buchstäblich gewürfelt, was hinten rauskommt.
 
  • Gefällt mir
Reaktionen: Haldi
Bright0001 schrieb:
Kundensupport ist schon ein ziemlich spezifischer Fall
Sehe ich anders.

Kundensupport braucht ein Language Model mit ein paar besonderen Anweisungen und einer API mit der es Requests umsetzen kann.

Dagegen sind die anderen Beispiele meistens komplett andere neuronale Netzwerke. Klar, der Output wird dann auch auf irgendeiner Ebene meistens in Text umgewandelt, aber das Netzwerk muss keine Ahnung von Grammatik haben um z.B. für eine Überwachungskamera ein Auto von einem Fahrrad zu unterscheiden.
 
  • Gefällt mir
Reaktionen: madmax2010
Zurück
Oben