Knalltuete
Lieutenant
- Registriert
- Aug. 2006
- Beiträge
- 535
Hi zusammen 
Wir möchten bei uns in der Firma mit lokalen KI-/LLM-Modellen starten und erst einmal praktische Erfahrungen sammeln (Betrieb, Performance, Workflows). Grund dafür ist, dass wir oft sensible Daten verarbeiten.
Use-Cases:
Ich schaue aktuell auf Mac Studio (M3 Ultra) und NVIDIA DGX Spark als kompakte und einfache Lösung.
Frage: Reicht so etwas für einen sinnvollen Einstieg, oder ist ein richtiger GPU-Server die bessere Basis? Falls Server: welche grobe Größenordnung ist sinnvoll (z. B. VRAM-Klasse 24 vs. 48/80 GB, 1 vs. 2 GPUs)?
Erfahrungswerte und konkrete Empfehlungen sind sehr willkommen!
Wir möchten bei uns in der Firma mit lokalen KI-/LLM-Modellen starten und erst einmal praktische Erfahrungen sammeln (Betrieb, Performance, Workflows). Grund dafür ist, dass wir oft sensible Daten verarbeiten.
Use-Cases:
- lange Dokumente zusammenfassen/überarbeiten
- Übersetzung
- Klassifikation
- Texterstellung
- später ggf. RAG über interne Dokumente (~100 GB PDFs, seltene Updates)
- und etwas Vision/Bilderkennung.
Ich schaue aktuell auf Mac Studio (M3 Ultra) und NVIDIA DGX Spark als kompakte und einfache Lösung.
Frage: Reicht so etwas für einen sinnvollen Einstieg, oder ist ein richtiger GPU-Server die bessere Basis? Falls Server: welche grobe Größenordnung ist sinnvoll (z. B. VRAM-Klasse 24 vs. 48/80 GB, 1 vs. 2 GPUs)?
Erfahrungswerte und konkrete Empfehlungen sind sehr willkommen!