Grundkurs schrieb:Wie wollen die diese gigantischen Beträge bitte in den nächsten 20 Jahren mit ChatGPT erwirtschaften? Ich hab mir für 23€ einen Monat Claude.ai gegönnt, habe das Abo aber schon wieder gekündigt. Es ist zu teuer für das was es tut. KI ist eine gigantische Blase.
Chatgpt-oss-20b läuft übrigens quasi umsonst auf der heimischen Hardware (lediglich Stromverbrauch des eigenen PC), kann sein das das in 2-3 Jahren bei vielen Leuten Lokal läuft, wozu braucht man dann ein ChatGPT Abo? Wie wollen diese Läden Geld verdienen?
Die Kontextlänge ist das Problem. Dein lokal laufendes Modell hat nach wenigen längeren Fragen/Antworten schon wieder alles vergessen, wohingegen die Cloud Modelle das Problem erst sehr sehr viel später bekommen. Je nachdem wie teuer es sein darf…
Die Chatbots mit Premium Abo sind gerade so über der Schwelle richtig nützlich zu sein. Hardware für ein lokales LLM was das gleiche leistet ist aktuell irrsinnig teuer. Hauptproblem ist die Menge an Grafikspeicher.
Ganz abgesehen davon besteht KI nicht nur aus Chatbots. KI wird schon seit Jahren in der Chipproduktion oder Medizin und Physik Forschung eingesetz. Es gibt extrem viele Anwendungen die nichts mit chatbots zu tun haben. Hier im Forum sollte man z.B. auch schonmal was von DLSS und FSR gehört haben. Nur so als kleines alltägliches Beispiel.
Es sollte einem zudem auch klar sein, dass die ganzen Cloud anbieter nicht nur wegen Chatbots Hardware einkaufen sondern für die ganzen Unternehmen weltweit die sich kapazitäten buchen wollen um ihre eigenen KI Anwendungen und Algorithmen zu trainieren und zu nutzen. Das kann wie gesagt für Forschung und Entwicklung genutzt werden, für ne Uni oder nen Automobilhersteller usw.
Chatbots kann man im großen ganzen schon fast als Randerscheinung sehen.
Zuletzt bearbeitet: