Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 39.133
Hi Zusammen,
ich bin gerade dabei lokal einige LLMs laufen zu lassen und wollte mal fragen wie bewertet ihr die Leistung davon? Also eine Art Real-World Benchmark. Mir ist dazu noch nichts gutes eingefallen und wenn ist die Schwelle so gering, dass es im Prinzip kein Sinn ergibt weil es eben sehr leicht zu beantworten ist. Ich nutze aktuell 4 Modelle:
1. dolphin-llama3:8b
2. llama3:70b
3. llama3:8b
4. wizardlm2:7b
Ich hatte auch schon wizardlm2:8x22b probiert aber das läuft auf meinem M1 Max nicht, da 64 GB zu wenig sind. Dafür bräuchte ich eher 96 oder mehr GB RAM.
Wenn ihr da ein guten Test habt damit man die Modelle untereinander testen kann wäre das super
Als UI nutze ich Open WebUI, wenn ihr da noch Optimierungen habt nehme ich die auch gerne an und teste sie.
ich bin gerade dabei lokal einige LLMs laufen zu lassen und wollte mal fragen wie bewertet ihr die Leistung davon? Also eine Art Real-World Benchmark. Mir ist dazu noch nichts gutes eingefallen und wenn ist die Schwelle so gering, dass es im Prinzip kein Sinn ergibt weil es eben sehr leicht zu beantworten ist. Ich nutze aktuell 4 Modelle:
1. dolphin-llama3:8b
2. llama3:70b
3. llama3:8b
4. wizardlm2:7b
Ich hatte auch schon wizardlm2:8x22b probiert aber das läuft auf meinem M1 Max nicht, da 64 GB zu wenig sind. Dafür bräuchte ich eher 96 oder mehr GB RAM.
Wenn ihr da ein guten Test habt damit man die Modelle untereinander testen kann wäre das super
