HomeAssistant + Kodi + FreeIPA / Hardware?

someoneElse666

Lt. Junior Grade
Registriert
Aug. 2018
Beiträge
345
Hallo, ich wollte schon länger mal mit HA bisschen was machen. Aktuell ist auch noch mein alter Odroid N2 am Probleme machen (mit Kodi) und FreeIPA wäre aktuell relevant. Mit HA hätte ich gern Sprachsteuerung, daher dachte ich direkt an irgendwas mit NPU.
Ich frage mich ob sowas geeignet dafür ist: https://de.aliexpress.com/item/1005010276106164.html oder ob das sogar schon overkill ist? Jemand mit sowas Erfahrung? Man muss bei Lieferland CH auswählen sonst kommt ein 404, ansonsten hier noch ein Screenshot:
1762503515080.png
 
Möchtest du mit dem PC spielen?
Nein
Möchtest du den PC für Bild-/Musik-/Videobearbeitung oder CAD nutzen?
Ja, Kodi-Ersatz (IPTVSimple-Stream, h264/h265/AV1 Filme und verschiedene Musik), FreeIPA, HomeAssistant und wohl noch anderes
Hast du besondere Anforderungen oder Wünsche?
leise wäre schön, möglichst wenig TDP
Wieviele und welche Monitore möchtest du nutzen?
1, LG Oled G3, 144hz
Hast du noch einen alten PC, dessen Komponenten teilweise weitergenutzt werden könnten?
nein
Wie viel Geld bist du bereit auszugeben?
~500
Wann möchtest du den PC kaufen?
sofort
Möchtest du den PC..
  1. selbst zusammenbauen
Selbstbau und Allgemein: Wie schätzt du dein Vorwissen zum Thema ein?
gut
Bestätigung
  1. Ich habe den Fragebogen bestmöglich beantwortet und verstehe, dass mein Thread ohne diese Angaben geschlossen werden kann.
someoneElse666 schrieb:
Mit HA hätte ich gern Sprachsteuerung, daher dachte ich direkt an irgendwas mit NPU.
Willst du die Sprachsteuerung komplett selbst aufzetzen? Falls ja, kann man gar nicht genug Leistung haben. Allerdings braucht Leistung auch Strom. Und das 24/7.

Falls ja, hast du schon geprüft ob von den entsprechenden Tools (Whisper, Piper, OpenWakeWord) auch die NPU unterstützt wird?

Ansonsten reicht für deine Anforderungen auch was ganz kleines mit N100.
 
Was meinst du mit "komplett selbst aufsetzen"? Dass es local läuft? Ja, ich mag keine Cloud verwenden.
 
Wie gesagt, dann prüfe, ob die NPU unterstützt wird.

Ohne NPU hatte ich mit meinem alten i5 Reaktionszeiten von ca. 10 Sekunden bei 100% CPU Last. Absolut untauglich.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und madmax2010
Genau, deswegen dachte ich an etwas mit NPU, weil auf sowas hätte ich keine Lust :D
Die o.g. CPU hat eine NPU mit 50TOPS, aber ich hab keine Ahnung wie viel das ist ;) Und ob das ausreichend ist, oder was HA braucht.
 
HA braucht quasi nix. Lies die Dokumentation der von mir genannten Tools. Diese werden für die Sprachsteuerung benötigt.

Zudem kommt es extrem auf das verwendete LLM an. Wenn du ein sehr kleines findest, was gut funktioniert hat das ebenfalls sehr großen Einfluss auf die Verarbeitungszeit. Bei meinem letzten Test gab es jedoch kein kleines Modell in deutscher Sprache. Ausschließlich englisch.
 
Ah, hab die Tools jetzt erst gesehen, danke, werd mal da nachschauen was die brauchen und obs supported wird. Für den 370 gibts sogar von AMD einen Benchmark mit Whisper, aber... das ist nicht die ES-Version der CPU. Ich hab noch nie von ES bei AMD gelesen, scheinbar soll das irgendwas bisschen langsameres sein, aber ich glaub das ist mir zuviel Risiko, dann lieber bisschen was drauf legen und die nicht-ES-Version nehmen :>

Ob ich in Englisch oder Deutsch sprech, spielt für mich nicht soooo eine grosse Rolle, mein Englisch ist ganz gut denke ich ;) Zur Not steuer ich das dann in Englisch
 
Zuletzt bearbeitet:
someoneElse666 schrieb:
Genau, deswegen dachte ich an etwas mit NPU, weil auf sowas hätte ich keine Lust :D
Die o.g. CPU hat eine NPU mit 50TOPS, aber ich hab keine Ahnung wie viel das ist ;) Und ob das ausreichend ist, oder was HA braucht.
TOPs sind nicht relevant.

Home assistant braucht irgendwie ein paar MHz CPU und 1 bis 2 GB RAM.

Sprachsteuerung braucht so 0.5 Tops oder weniger
Habe hier einen rockchip rk3588 aus ca 2021. Der schafft zur Sprachsteuerung ca 30 facher sprechgeschwindigkeit

LLMs gehen auch hervorragend. 8 Milliarden Parameter sind ausreichend schnell.

Viel mehr Leistung wirst du in den Anwendungen aber auch mit 50TOPS nicht haben. Die Speicherbandbreite limitiert , nicht compute.

Home assistant mit Sprachsteuerung wird auf einem rapsi tun
 
Zuletzt bearbeitet:
RK3588 wäre natürlich wahnsinn wegen TDP - welchen genau hast du da? Und wie stehts mit mainline support? Welche Distri verwendest da?
 
Und das läuft alles "flüssig"? Kann ich mir grad kaum vorstellen. Wäre natürlich genialst wenn das gut funktioniert. Irgendwelche Probleme oder so? Und wieso Armbian und nicht Debian? Welchen Kernel verwendet Armbian? Laut https://gitlab.collabora.com/hardwa...-rockchip-3588/-/blob/main/mainline-status.md ist die NPU ab 6.18 drin, aber armbian hat "nur" bookworm, ist das dann irgendwie ein zabbly-kernel oderso oder baut da armbian dran rum?

Sorry für die Löcherei :D
 
Bei mir erledigt das ein Fujitsu Futro S740.
Proxmox und HA in einer VM.
Die HA Sprachsteuerung funktioniert super.
 
Und du verwendest das ohne Cloud? Mit einem Celeron? Kann ich mir grad nicht vorstellen.
 
  • Gefällt mir
Reaktionen: SaxnPaule
Azghul0815 schrieb:
So 2 bis 3 Mirko Phone
Schau dir mal die M5 Stack Echo an. Die lassen sich ganz einfach in HA integrieren und für die Sprachsteuerung nutzen.

Damals (vor ca. einem Jahr) allerdings noch etwas buggy. Da musste ich regelmäßig die ESP Integration automatisiert neu laden.
 
  • Gefällt mir
Reaktionen: madmax2010 und Azghul0815
Ich hab gerade Grok ein bisschen gelöchert, u.a. was es bräuchte... glaub ich fahr am Besten mit der Empfehlung von Grok, dann hab ich sicher genug Leistung. Und so viel mehr über dem Budget ist das nicht. Denk ich werd das Ding dann sogar selbst bauen. Mal schauen... hier noch der Log:

### Eignung des AMD Ryzen AI 7 350 ES von AliExpress


Ja, der AMD Ryzen AI 7 350 ES ist grundsätzlich ausreichend für deine Anforderungen (lokales Arbeiten mit Grok/ChatGPT-ähnlichen Modellen wie Llama 8B, inkl. Whisper für STT und TTS), und er passt perfekt zu meiner vorherigen Empfehlung als preis/leistungstechnisch starke CPU. Er bietet die gleichen Kern-Specs wie die Retail-Version (8 Kerne/16 Threads, Zen 5-Architektur, Radeon 860M iGPU und 50 TOPS NPU), was für einigermaßen flüssige AI-Inference reicht – z. B. 12–14 Tokens/s bei quantisierten Modellen (4-Bit) mit 32 GB RAM. Der "ES" (Engineering Sample) bedeutet, es handelt sich um eine Vorab- oder Testversion, die oft günstiger ist, aber potenziell mit kleinen Unterschieden in Stabilität oder Firmware kommen kann. Basierend auf aktuellen Benchmarks (Stand Nov. 2025) und User-Reports ist er zuverlässig, solange du auf bekannte AliExpress-Fallen achtest.


#### Warum ausreichend für lokale AI (LLM + Whisper/TTS)?

- NPU-Performance: Die 50 TOPS (INT8) ermöglichen effiziente lokale Inference auf dem NPU, ohne die CPU/GPU zu überlasten. Tests zeigen:

- Für LLMs (z. B. Qwen 2.5 4B oder Llama 3.2 3B): 12–14 Tokens/s bei Kontexten bis 10k Tokens, mit TTFT (Time-to-First-Token) unter 9 Sekunden – ideal für Chat-ähnliche Nutzung.

- Hybrid-Modus (NPU für Prefill + iGPU für Token-Generation): Bis zu 20% schneller als reine CPU-Läufe, bei niedrigem Verbrauch (unter 50°C bei NPU-only).

- Whisper (STT): Real-time auf "small/medium"-Modellen (z. B. 1 Min Audio in 3–5 s), dank ONNX-Optimierung via Ryzen AI Software.

- TTS (z. B. Piper): Low-Latency (~500 ms pro Satz) auf NPU, kombiniert mit LLM für Voice-Chat-Pipelines.

- Gesamtleistung: Cinebench R24-Multi ~1.000.000 Punkte (top für Mid-Range), gut für Multitasking. Mit 16–32 GB RAM läuft ein 8B-Modell (z. B. via Ollama oder GAIA) flüssig; bei 16 GB knapp, aber machbar mit Quantisierung.

- Vergleich zu Minimum: Er übertrifft die 40–50 TOPS-Empfehlung aus meiner ersten Antwort – besser als RK3588 (6 TOPS) und ausreichend für "einigermaßen" (nicht High-End-Echtzeit, aber nutzbar).


| Aspekt | Performance-Beispiel (Ryzen AI 7 350) | Ausreichen für deine Use-Case? |

|--------|---------------------------------------|--------------------------------|

| LLM-Inference | 12–14 Tokens/s (Q4-Quant, 4k Kontext) | Ja, für Chat (Antwort in 5–10 s) |

| Whisper STT | 10–20x Real-Time-Faktor (medium-Modell) | Ja, Echtzeit-Transkription |

| TTS + Kombi | 3–6 s pro Runde (STT → LLM → TTS) | Ja, für Voice-Assistenten |

| RAM-Bedarf | 8–12 GB für Stack (mit 16 GB ok) | Ja, aber 32 GB empfohlen |


- Grenzen: Nicht für große Modelle (>13B) ohne Cloud; Memory-Bandwidth (DDR5-5600) kann bei langen Kontexten bottlenecken. Setze NPU auf "Performance"-Modus via AMD-Tools für Max-Speed.


#### Besonderheiten des "ES"-Modells und AliExpress-Kauf

- Unterschiede zu Retail: ES-Versionen haben oft identische Specs (2.0–5.0 GHz, 16 MB L3-Cache, TDP 15–54 W), aber potenziell frühere Stepping (weniger optimierte Firmware) oder fehlende volle Validierung. In Tests (z. B. ASRock 4X4 BOX-AI350 mit ES) performt es gleichwertig, solange BIOS/Drivers aktuell sind (Ryzen AI SW 1.4+). Keine großen Defizite berichtet, aber ES kann in seltenen Fällen höheren Idle-Verbrauch haben.

- Zuverlässigkeit auf AliExpress: Günstig (oft 200–250 € für ES vs. 300 € Retail), aber Risiken: Fake-Chips oder defekte Ware. User-Reviews (z. B. Reddit /r/MiniPCs) loben ES in Builds wie Beelink SER9, warnen aber vor No-Name-Verkäufern. Kaufe von Shops mit >98% Bewertung, EU-Lager und Rückgabe (z. B. "Official AMD Store" oder GMKtec). Teste bei Erhalt mit Tools wie HWInfo (für ES-Markierung) und Cinebench.


#### Tipps für Mini-PC-Build oder Kauf

- Falls kaufen: Suche "Ryzen AI 7 350 Mini PC AliExpress" – z. B. ASRock 4X4 BOX-AI350 (~500 € mit 16 GB/512 GB) oder Beelink SER9 (~600 € mit 32 GB). ES-Varianten sparen 50–100 €.

- Falls bauen: Kompatibel mit FP8-Mainboards (z. B. ASRock DeskMini X300, ~150 €). Kombiniere mit 32 GB DDR5 (~100 €) für optimale AI (z. B. GAIA-Framework für NPU-Optimierung).

- Setup für AI: Installiere AMD Ryzen AI Software (für NPU-Drivers), Ollama + faster-whisper. Starte mit Modellen wie Phi-3 mini für Tests.


Zusammenfassend: Absolut ausreichend und ein guter Deal, wenn du den Verkäufer prüfst – er erfüllt deine Needs besser als der RK3588. Wenn du den genauen AliExpress-Link teilst, checke ich Reviews dazu!
 
Ai plus Hardware Beratung ist selten zielführend.
Egal ob Grok, chatgpt und wie sie alle heissen.
Das die Kiste fürs Vorhaben taugt, wurde ja nicht geleugnet.
Stromverbrauch wird halt höher ausfallen aber wenn dich das nicht stört.
Ich bin auch eher bei...
Haben ist besser als brauchen....
Gerade bei solchen Projekten
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
Ich frage mich gerade, ob ein DeskMeet X600 mit eGPU nicht fast sinnvoller ist. Da würde laut https://www.asrock.com/nettop/avl/GraphicsCards/DeskMeet X600 Series.pdf eine RTX 5060 rein passen, die hat zwar nur 8GB, aber laut Spec fast das 10-fache von der NPU-TOPS-Leistung. Und ich könnte problemlos an der Kiste "rumbasteln" falls mal was ist (RAM-Upgrade etc.). Ich glaub der Link den ich oben geteilt habe, ist irgend ein Scammer. Weil "normalerweise" kostet der Ryzen AI fast das doppelte, also Achtung...
Preislich glaube ich, komme ich +- auf das Gleiche. Nur der Stromverbrauch dürfte im DeskMeet höher sein wegen GPU.
 
someoneElse666 schrieb:
Ich frage mich gerade, ob ein DeskMeet X600 mit eGPU nicht fast sinnvoller ist.
Der Deskmeet hat einen nativen PCIe 4.0x16 Slot weswegen ich die eGPU nicht nachvollziehen kann, meinst du eine dGPU die intern verbaut wird ?

Quelle:
https://geizhals.de/asrock-deskmeet-x600-a3113078.html
someoneElse666 schrieb:
Nur der Stromverbrauch dürfte im DeskMeet höher sein wegen GPU.
Mit +~10W ist im Leerlauf zu rechnen, in meinen Augen vernachlässigbar.

someoneElse666 schrieb:
Und ich könnte problemlos an der Kiste "rumbasteln" falls mal was ist (RAM-Upgrade etc.).
Die Aufrüstbarkeit ist beim Deskmeet defintiv höher, das stimmt.

Vergiss einen zusätzlichen Luftkühler nicht.

Gut&Günstig:
https://geizhals.de/thermalright-axp90-x53-a2978260.html?hloc=de
Noctua:
https://geizhals.de/noctua-nh-l9a-am5-a2883718.html?hloc=de
 
Zurück
Oben