Lenti
Ensign
- Registriert
- Okt. 2015
- BeitrÀge
- 184
Hallo zusammen,
ich hoffe ich bin hier im richtigen Bereich. đ
ich habe aktuell ein DIY-NAS auf Basis von TrueNAS SCALE laufen und ĂŒberlege, das System um eine GPU fĂŒr lokale KI-Anwendungen zu erweitern.
Mein Setup:
Meine Fragen:
Danke euch!
ich hoffe ich bin hier im richtigen Bereich. đ
ich habe aktuell ein DIY-NAS auf Basis von TrueNAS SCALE laufen und ĂŒberlege, das System um eine GPU fĂŒr lokale KI-Anwendungen zu erweitern.
Mein Setup:
- https://geizhals.de/wishlists/4506635
- Nutzung: Homelab, Lernen (Fachinformatiker Systemintegration), KI/Automatisierung, Smart-Home-Anbindung
- gute UnterstĂŒtzung fĂŒr lokale LLMs
- ich möchte vor allem ausprobieren und lernen. Ein möglicher Anwendungsfall wÀre, eine lokale KI zu nutzen, die meine Lernunterlagen durchsuchen und mir beim Auffinden von Informationen helfen kann
- gleichzeitig möchte ich mir etwas Spielraum offenhalten, um spÀter weitere Themen rund um KI, Homelab oder Automatisierung auszuprobieren
- ich möchte nicht an den Punkt kommen, an dem ich spĂ€ter merke, dass ich wegen zu wenig VRAM direkt wieder aufrĂŒsten muss
- gleichzeitig muss es aber auch kein ĂŒbertriebenes High-End-Setup sein. Ich hoffe, dass ich mit 12 GB VRAM fĂŒr den Einstieg und erste ernsthafte Projekte schon sinnvoll arbeiten kann
- ich habe hier im Forum schon einiges dazu gelesen, was man mit einem eigenen Server alles umsetzen kann. Einige der genannten Anwendungen und Tools habe ich gerade nicht mehr konkret im Kopf, aber genau in diese Richtung möchte ich mich nach und nach einarbeiten
Meine Fragen:
- Welche GPU wĂŒrdet ihr aktuell fĂŒr diesen Zweck empfehlen (Preisbereich ca. 300 - 600 âŹ)? đ€
- Gibt es bei TrueNAS SCALE + Docker/Apps etwas zu beachten bzgl. GPU-Passthrough / UnterstĂŒtzung?
Danke euch!