Gigaherz schrieb:
Es wird eher verstanden dass diese Funktionen keinen Nutzen haben.
Außer noch mehr Nutzerdaten nach Hause zu telefonieren.
Imo auch die Stelle, an der das größte Marketingpotenzial verschenkt wird: "Nutze (d)einen Chatbot völlig privat, völlig offline, komplett unter deiner Kontrolle" - das wäre ein Zugpferd.
Aber einfach irgendwelche API-Calls ins System zu integrieren, die Gott-weiß-wohin geschickt und ausgewertet werden, triggert bei den meisten ja erstmal nur den Würgreiz, mich eingeschlossen.
mibbio schrieb:
Bei aktuellen AI-PCs ist man eher auf sehr simple Modelle beschränkt, die dann nur einfache Ergebnisse für einen Prompt liefern. Also eher Spielzeug als wirklich hochwertige KI.
Conqi schrieb:
Richtig. Ich glaube, wenn darauf lokal brauchbare LLMs laufen würden, gäbe es sogar ein gewisses Interesse.
Auch so eine Stelle, bei denen die Hersteller nur das nötigste machen, anstatt sich von den anderen abzusetzen: Brauchbare Modelle gibt es mittlerweile zuhauf, auch kleine, da wäre es also durchaus möglich und sinnvoll, dem Nutzer ein lokales, auf die Hardware optimiertes Model zur Verfügung zu stellen.
Viele mögen jetzt "Bloatware" rufen, aber lieber die, als die Grabbelfinger von Microsoft überall im System.
Renegade334 schrieb:
Mir fehlt da noch die "Killer" Anwendung. Wenn jetzt z.B. Immich für die Klassifizierung die NPU nutzen könnte, wäre das wenigstens eine sinnvolle Anwendung, für die ich die NPU an meine VM durchreichen würde. Bisher habe ich noch nichts sinnvolles gefunden, um das bisher brach liegende Potential zu nutzen.
Naja, die Killer-Anwendung ist in den meisten Fällen auch die dedizierte Anwendung für ebenjenen Usecase. Die Stärke von LLMs ist ja eher dass sie sehr viel können, ohne darauf eingeschränkt zu sein.
just_fre@kin schrieb:
Der Consumer-Markt kann ja offenbar aktuell relativ wenig mit K.I. PC´s anfangen, dieser Thread bestätigt mich stark darin. Mehr als ne aufgetunte Suchmaschine sehe ich darin aktuell nicht für den Privatgebrauch.
Also im privaten Bereich ist die aufgetunte Suchmaschine schon viel wert: Wenn ich bspw. "hidden gem" Videospiele von 2025 suche, dann lass ich das doch lieber ChatGPT machen und mir ne Liste ausspucken, als mich selbst durch drölf Seiten lesen zu müssen.
Dazu kommen halt sehr viele individuelle Cases, die man sonst höchstens mit Code abdecken kann: Ich wollte mal die Tags von ein paar zehntausend Büchern konsolidieren, alle wild formatiert, teils auch fremdsprachig. Per Hand eine Geduldsprobe, mit ChatGPT wars in rund 10 Minuten erledigt.
Verwandte können sich mittlerweile zuerst an den Chatbot wenden, statt an mich, wenn sie vergleichsweise seichte technische Fragen oder Probleme haben.
Theoretisch wäre all das auch mit manueller Websuche möglich, praktisch gibts dann halt doch Fälle, wo etwas entweder "einfach" geht, oder gar nicht gemacht wird.