Bright0001
Captain
- Registriert
- Juli 2011
- Beiträge
- 3.282
Ich hab mittlerweile sicher >=1TB AI-Zeug auf der Platte, will sagen: Ich weiß.AlphaKaninchen schrieb:Nein müsste es nicht man kann ein LLM auf halbwegs brauchbarer Hardware auch Lokal ausführen z. B. Gemini Flash, wenn du darauf eingehst und weitere Fragen stellte kann man es Gemini Pro in der Cloud geben
So ein Model muss am Ende aber halt nicht nur laufen, sondern im Fall der Fälle Bilder futtern ohne Ende, und das schnell genug, dass der generierte Inhalt noch aktuell genug ist, um relevant zu sein. Das funktioniert dann höchstens auf High-End Hardware, wenn überhaupt, und steht dem Ziel von Chrome, der Standard-Browser vom PC bis zum Auto zu sein, entgegen.
Ich geb der Suppe noch ein paar Jahre, dann dürfte AI Hardware in der Breite angekommen sein, und dann wird das auch zu einem realistischeren Unterfangen.