News Pi AI HAT+ 2: Aufsteckbare 40 TOPS Gen-AI-Leistung für den Raspberry Pi 5

Der Raspi Guru Jeff Geerling hat sich das Teil angeschaut und es beschleunigt auch KI Modelle, aber er fand die 8 GB RAM zu klein, da hier nur wirklich kleine LLMs hinein passen. Er meinte deswegen die reine "Software-Lösung" mit einem 16 GB RAM Rapsi 5 sei besser, auch wenn das langsamer läuft.
 
Haldi schrieb:
PTZ Zoom für Gesichtserkennung die automatisch trackt?
Ja, die Reolink 823A fährt per optischen Zoom an erkannte Personen ran.
Die Face Recognition läuft erst nach face detection cut-out auf dem Person detection zoom-in Foto.

Die Qualität ist je nach Bewegungsgeschwindigkeit der Person ziemlich gut. Nur wenn mein Junge mit dem Fahrrad die Einfahrt rein brettert oder richtig rennt, kommt die Kamera mit dem Zoom und Scharfstellen nicht nach, was in einem Fehlalarm für eine unbekannte = nicht erkannte Person endet. Trotzdem Absolut akzeptabel am relativ geringen Materialaufwand gemessen. Die settings so hin zu prügeln das alles läuft war hingegen Feintuning über Wochen.
 
  • Gefällt mir
Reaktionen: Tsu und Haldi
Bright0001 schrieb:
Für viele, wenn nicht die meisten Prompts von "Allerweltsnutzern", die damit nicht arbeiten, sind sie absolut brauchbar.
Den Einsatzzweck "Education" würde ich nach unseren Tests an der Hochschule direkt wieder streichen. Selbst mit erheblich mehr Parametern (um die 30B) verlieren die Modelle bei komplexeren Fragestellungen und Diskussionen rasch den Faden und halluzinieren wild herum - lange bevor das context limit erreicht wird.
 
  • Gefällt mir
Reaktionen: madmax2010 und Haldi
Haldi schrieb:
Wie fett muss der Zoom der Kameras sein um Gesichter effizient zu erkennen?
Muesste paper suchen, aber 16x16 Pixel reichen eigentlich
 
INe5xIlium schrieb:
Den Teil habe ich nicht verstanden. Was machen Leute mit PDF auf dem Raspberry?
PaperlessNG höre ich auch zum ersten Mal, da kann ich mir vorstellen, dass man eine Datenbank hat, auf die man zugreifen will. Sonst kann man das ja auf dem PC oder Laptop direkt nutzen, wenn man ein PDF bearbeitet und ist vermutlich sogar schneller fertig.
PaperllsNG ist Digitale Dokumenten Verwaltung, ich schiebe alle Dokumente nach PaperlessNG. Das ist entsprechend Konfiguriert um eine Ordnerstruktur mit den Dokumenten aufzubauen so wie seit 20 Jahre gewohnt. Aber die Volltextsuche, das Filtern nach Korrespondenten mit Tags und Dokumenttypen was zählt, das verarbeiten von Dokumenten von Ordern und Mail Adressen.. Ich habe meine Dokumente, Verträge, Bescheide, Rechnung mittlerweile in PaperlessNG und greife davon von meinen Linux Laptop, Windows PC, Android Smartphone oder was auch immer einen Browser.

Bright0001 schrieb:
Ich nicht, aber ich hätte ja eher gesagt, dass es sich sogar ziemlich gut dafür eignet. Ein kleines Model angebunden an einen Telegram-Account, und du hast einen privaten und "kostenlosen" Chatbot, den du leicht in der Familie verteilen kannst, selbst wenn jene 0 technisches Know-How hat.


Hast du denn irgendein technisches Fundament oder Programmiererfahrung? Modelle trainieren ist eine andere Hausnummer als diese nur lokal laufen zu lassen, und wenn du bei 0 startest, dann machst du das nicht an einem Nachmittag.
Das Fundament sind 25 Jahre Erfahrung in Systemintegration, Administration und Support. Kein Programmieren, musste ich nie machen, Python ist aber lesbar und anpassbar. Am Nachmittag wird es nichts werden auch ein WE recht nicht....Ich nutze aber kein Gemini, oder ChatGPT, die müssten mich Bezahlen damit ich mein Wisseen.

Die Idee ist einen kleinen Chatbot zu laufen lassen, den noch zusätzlich mit weiteren Quellen füttern, wie eigene Dokument aber auch bestimmte Sites, Ist für mich privat, aber use cases sind auch Anwälte und Psychiater die Informationen über die Patienten nicht an die big5 übergeben wollen.

Die Leute sitzen im Büro wollen aber nicht die Cloud nutzen und nen fetten Rechner mit Lüfter möchte man auch nicht haben, aber privacy ist wichtig. Demn es giibt Kunden wenn was rauskommt DSVGO ein Witz.

Bright0001 schrieb:
Du kommst schneller ans Ziel, wenn du einem fertigen Modell deinen Kram im Kontext zur Verfügung stellst - aber da brauchts halt tatsächlich ordentlich Speicher, also die dicke GPU oder eine APU wie die letzten Ryzens.
OK das ist was ich hören wollte, also NPU und noch etwas warten. Ich möchte auch den Kontext vermeiden aber verstehe was du meinst. Mit den Informationen im Kontext , im Prompt zu arbeiten ist einfacher als weitere Quellen oder Informationen mit Priorität einzufügen.
madmax2010 schrieb:
absolut. Freies texten, wenn du ahnliche dokumente als beispiel lieferst geht super.
Habe das seit ~2 jahren in immer besserer form auf meinem NanoPi laufen.
Whisper+Postgres mit GPVector und PGAI, dazu ein paar skripte und Qwen3 (4B, zugegegen) und schon hast du einen ganz guten Sprachassistenten

...... TOPS/Watt bei einer RTX5090 sogar besser. Bringt halt nichts, wenn man die nicht ausreizen kann oder Das Budget nicht hat
This! Geht zwar wieder zum Kontext und Prompt, aber das hörtsich wie eine weiterer Container im PasperryPI an und wenn ich Nano gehts wohl mit dem PI5 8 GB.

Mir geht es echt um die Effizien ein non IT Freelancer wil keine 5900, aber das braucht ma nicht wenn man im kleine Rahmen , single user bleibt.
INe5xIlium schrieb:
Das ist dann ein Hat mit mehreren Anschlüssen für Peripherie, oder? Eine Möglichkeit das irgendwie zu verketten gibt es nicht? Weil oft will man ja eine SSD haben, aber dadurch verliert der Raspberry den größten Teil seiner IO-Fähigkeiten
Es gibt hats mit 4 PCI Amschlüssen selbstverständlich teoilten alle den gleiche bus aber bei single use kommt es ja nicht auf performance an. Man speicher entweder Datenb die den PCI bus belasten oder nutz den Bus anders. Ein PI für ein Büro mit gleichzeitgen Zugirffen auf die Vwerscheiedenen Amwendung ist dann doch nicht die Lösung.

Aber Ziuhause oder als Freelance reicht ein PI5 und den I/O kann manch auch zu anderen Zeiten auslagern.
Wenn der IT Beruf ist auch gerne mehr als PI und mann kann den Kompromiss finden ohne gleich die Lederjacke zu fütternn.
 
Backfisch schrieb:
Den Einsatzzweck "Education" würde ich nach unseren Tests an der Hochschule direkt wieder streichen. Selbst mit erheblich mehr Parametern (um die 30B) verlieren die Modelle bei komplexeren Fragestellungen und Diskussionen rasch den Faden und halluzinieren wild herum - lange bevor das context limit erreicht wird.
Das täten viele Hauptschullehrer auch - kann man bei denen "Education" nun ebenfalls streichen? :P

Aber klar, komplexe Themen bei denen es auf Details ankommt bzw. solche, zu denen es auch im normalen Internet wenig Infos gibt, sind grundsätzlich panne, da hilft auch das neuste ChatGPT nichts.

atze303 schrieb:
Das Fundament sind 25 Jahre Erfahrung in Systemintegration, Administration und Support. Kein Programmieren, musste ich nie machen, Python ist aber lesbar und anpassbar. Am Nachmittag wird es nichts werden auch ein WE recht nicht....Ich nutze aber kein Gemini, oder ChatGPT, die müssten mich Bezahlen damit ich mein Wisseen.

Die Idee ist einen kleinen Chatbot zu laufen lassen, den noch zusätzlich mit weiteren Quellen füttern, wie eigene Dokument aber auch bestimmte Sites, Ist für mich privat, aber use cases sind auch Anwälte und Psychiater die Informationen über die Patienten nicht an die big5 übergeben wollen.
Ah, na dann ist ja schon ein Fundament da. Dann kannst auch folgende Optionen in Betracht ziehen:
  • Feintuning: Ein fertiges Model anpassen, was zwar hervorragend klingt, aber auch ne Stange Arbeit ist, da du dafür zuerst einen sauberen Trainingssatz brauchst (sprich Input->Output, keine nackten Dateien)
  • Vector DB: Du lässt deine Dokumente von einer darauf spezialisierten KI in einer Vector-DB speichern, auf die ein LLM/Chatbot dann selbstständig zugreifen kann. Auf der einen Seite weniger Aufwand, auf der anderen Seite muss sich das LLM trotzdem erst relevante Dokumente in den Kontext ziehen, um sie berücksichtigen zu können.
atze303 schrieb:
Ich möchte auch den Kontext vermeiden aber verstehe was du meinst. Mit den Informationen im Kontext , im Prompt zu arbeiten ist einfacher als weitere Quellen oder Informationen mit Priorität einzufügen.
Also vielleicht zum Verständnis: Du sendest immer alles im Kontext mit. Alle Anweisungen, alle Anhänge, alle bisherigen Chatnachrichten - wirklich alles. Es sieht in der UI immer so aus, als ob nur jeweils eine Nachricht hin und her geschickt wird, aber verarbeiten tut das LLM den gesamten bisherigen Verlauf (der im Hintergrund ggf. vorher zusammengefasst wurde, um Tokens zu sparen), jedes Mal.

Um Anweisungen (oder halt Vorlagen und ähnliches) "frisch" zu halten gibts durchaus Strategien - solltest du dich tatsächlich mal daran setzen, empfehle ich dir mit SillyTavern zu starten und da mal alle Features zu sichten. Wird in erster Linie von Rollenspielern benutzt, ist meines Erachtens aber trotzdem ein gutes Tool um solche Dinge zentral zu verwalten.

Und alle Features in SillyTavern kennen und verstehen ist schon das halbe Studium. :lol:
 
  • Gefällt mir
Reaktionen: atze303
Danke für die Info, warvecht hilfreich. Ich glaub das wird was fürn Sommer wenn die Sonne scheint und es zu warm draußen ist.
 
Rickmer schrieb:
Es wird wohl Ausnahmesituationen geben, bei der Offloading auf separate Hardware mit eigenem RAM etwas umsetzbar macht, aber das wars dann auch

Das ist keine Ausnahmesitution, das ist genau der Usecase. Ein LLM würde ja den Raspi komplett lahmlegen, von daher macht das schon stark Sinn, gerade wenn noch andere Dienste auf dem Raspi laufen sollen. (Webserver, VNC, API´s, Container usw.)
 
Zurück
Oben