News Schlappe für Zuckerberg: Metas KI-Spitzenmodell Llama 4 Behemoth verzögert sich

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
8.274
Zuckerberg ist auf AI-Kurs, er will den Meta-Konzern als einen der führenden Anbieter etablieren und investiert dafür zweistellige Milliarden-Summen pro Jahr. Bei der Entwicklung strauchelt man derzeit aber, die Leistung der Llama-Modelle liegt hinter den Erwartungen und das neue Spitzenmodell verzögert sich.

Zur News: Schlappe für Zuckerberg: Metas KI-Spitzenmodell Llama 4 Behemoth verzögert sich
 
  • Gefällt mir
Reaktionen: CountSero und konkretor
Ein echter Durchbruch wäre für mich persönlich ein KI Modell, welches ich ohne Abo, 100% offline und ohne Zensur einsetzen kann. Egal ob es um Text, Bild oder Video geht.

Die anfängliche Marketinglüge, dass ein PC nicht genügend Ressourcen (Speicher, Performance, etc.) besitzt, wurde bereits widerlegt. Sprachmodelle konnten sogar ohne Internet auf einem Smartphone ausgeführt werden und mit der Zeit wird es effizienter werden.

Geld könnte man damit wie mit klassischer Software verdienen.
Ich bin bereit für ein gutes Sprachmodell 100-200 € zu zahlen, welches ich über Jahre nutzen kann, bis ich für ein deutlich besseres Modell erneut ähnlich viel Zahlen muss.

Eine Online-Lösung, besonders mit einem Abo, kommt aber auf keinen Fall in Frage! Und beruflich ist es sowieso vollkommen ausgeschlossen sensible Daten in eine Cloud zu schicken, welche garantiert für Wirtschaftsspionage eingesetzt wird.
Ich bin schon gespannt, was ich in 10 Jahren über KI-Skandale lesen darf, was mit "war doch klar" kommentiert wird, obwohl es für die Meisten doch nicht so klar ist.
 
  • Gefällt mir
Reaktionen: FlashBFE, Volvo480, brthr_nemiel und 5 andere
Man stelle sich vor, alle Firmen arbeiten an einer einzigen KI. Das wäre mal was Neues 😁
 
  • Gefällt mir
Reaktionen: Weyoun und GameOC
@SportMönch
Ein KI Monopol mit der besten Zensur und Kundenbeeinflussung etwa? Was kann da schon schief gehen? 😉
 
  • Gefällt mir
Reaktionen: pacifico, Alphanerd und Yesman9277
Am besten gefällt mir derzeit Gemini,
Aber nicht über Google selbst, sondern über AI-Studio
https://aistudio.google.com

Ansonsten: $hort Meta ^^
Ich befürworte ihre Unternehmungen im Bereich VR, mehr nicht.
 
DieIntilligente schrieb:
Geld könnte man damit wie mit klassischer Software verdienen.
Ich bin bereit für ein gutes Sprachmodell 100-200 € zu zahlen, welches ich über Jahre nutzen kann, bis ich für ein deutlich besseres Modell erneut ähnlich viel Zahlen muss.
Das ist doch in Zukunft gar nicht mehr gewollt.... Abo heißt das Zauberwort... mit welchem Geld die Abos allerdings bezahlt werden sollen wenn alles für den Bürger einfach immer teuer wird da denkt keiner drüber nach, sei es bei den Autos, Miete etc....
 
  • Gefällt mir
Reaktionen: slow_snail, konkretor und DieIntilligente
DieIntilligente schrieb:
Ein echter Durchbruch wäre für mich persönlich ein KI Modell, welches ich ohne Abo, 100% offline und ohne Zensur einsetzen kann. Egal ob es um Text, Bild oder Video geht.
Wie soll das gehen ?
 
-Ps-Y-cO- schrieb:
Ich befürworte ihre Unternehmungen im Bereich VR, mehr nicht.
Was ist mit ihren Unternehmungen im Bereich Open Science / Open Source?

Google hat sich da gemoated und es wird nur langsam besser. FAIR / AI@Meta Publiziert gerade am laufenden Band sehr faszinierende Software. Alleine Meta MMS, SAM, UMA und der Rest von hier sind wirklich beeindruckend
https://ai.meta.com/blog/meta-fair-science-new-open-source-releases/



Was LLAMA4 angeht: sieht ja aus als ob auf dem Testset trainiert wurde und vor 3 Tagen haben ~85% des LLM Teams gekündigt.
Bleibt spannend, was da schief gegangen ist..
Ergänzung ()

DieIntilligente schrieb:
Ein echter Durchbruch wäre für mich persönlich ein KI Modell, welches ich ohne Abo, 100% offline und ohne Zensur einsetzen kann. Egal ob es um Text, Bild oder Video geht.
Was hinder dich daran das zu tun?

Fuer all das gibt es modelle die du selbst betreiben kannst. Ich habe hier selbst einen haufen laufen, alleine schon um mit Tickets, Todos, notitzen und emails reden zu können.
Alle Daten in Postgres lokal, Pgvector+PGAI + LLM (ehemals llama 3.1, jetzt qwen3-14B)
Spracherkennung mit Whisper und das alles in brauchbarer Performance direkt auf einem kleinen Pi


Zanza schrieb:
Wie soll das gehen ?
Der triviale weg:
https://ollama.com/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480
Geht es nur mir so oder hat noch jemand den Eindruck, dass seit einigen Jahren bei Facebook durchweg falsche Entscheidungen getroffen werden, die viele Milliarden ohne spürbares Ergenis kosten.
 
  • Gefällt mir
Reaktionen: gartenriese
madmax2010 schrieb:
Was hinder dich daran das zu tun?

Fuer all das gibt es modelle die du selbst betreiben kannst. Ich habe hier selbst einen haufen laufen, alleine schon um mit Tickets, Todos, notitzen und emails reden zu können.
Alle Daten in Postgres lokal, Pgvector+PGAI + LLM (ehemals llama 3.1, jetzt qwen3-14B)
Spracherkennung mit Whisper und das alles in brauchbarer Performance direkt auf einem kleinen Pi



Der triviale weg:
https://ollama.com/
Auf einem kleinen Pi?

Mich würde da interessieren, wie du ein 14B Modell performant auf einem Pi zu laufen bekommst. Ich verwende hier auch zahlreiche Tools zum Coden, zur Dokumentverwaltung, im Browser, zur Suche und als Nachforschhilfe, allerdings auf einem 7945HS, also 8 Kerne, NPU und GPU im Tandem.
 
@madmax2010 Sehr geil.
Ich habe alles auf dem Würfel hier auf dem Tisch, aber eigentlich würde ich gerne meinem Home Server mal ein Update verpassen, sodass der ganze Haushalt davon profitiert.
Ist aber alles noch Spielerei.
 
blueGod schrieb:
Geht es nur mir so oder hat noch jemand den Eindruck, dass seit einigen Jahren bei Facebook durchweg falsche Entscheidungen getroffen werden, die viele Milliarden ohne spürbares Ergenis kosten.
Es sich im Rektum von Donald gemütlich zu machen kann doch keine falsche Entscheidung sein?
 
  • Gefällt mir
Reaktionen: madmax2010
Wer alles in einer app haben will und ein lokales LLM nutzen will, kann das hier nutzen
https://msty.app/
Läuft auf Windows Mac und Linux
 
  • Gefällt mir
Reaktionen: WiP3R
Mr.Uhu schrieb:
Ich habe alles auf dem Würfel hier auf dem Tisch, aber eigentlich würde ich gerne meinem Home Server mal ein Update verpassen, sodass der ganze Haushalt davon profitiert.
Wie gut funktioniert deine NPU inzwischen? Ein freund schimpfte vor 6 Monaten noch sehr ueber die Toolchain
 
Ich frage mich immer was den die Leute glauben was so eine KI den Menschen nutzen wird....?
Wenn da ein Zuckerberg Milliarden reinsteckt .... Leute... Milliarden !
Der will ja damit nicht Geld verlieren ,sondern Geld verdienen !
Und ihr hofft irgendwie darauf das es euch persönlich möglichst auch noch kostenlos das Leben erleichtert....
Das wird nicht kommen, da findet sich ein Weg den Nutzern das Geld aus der Tasche zu ziehen.
Ganz sicher !
Meine Begeisterung für KI hält sich daher sehr in Grenzen.

tomtom
 
  • Gefällt mir
Reaktionen: Mysterion
Und, widersprecht ihr noch der Nutzung eurer Daten für die KI bei Facebook und Instagram - falls ihr diese Platformen noch benutzt?

Selbst wenn, ich traue denen auch zu die Daten dennoch zu verwenden. Drecks Social Media, die Geißel unserer Zeit.
 
  • Gefällt mir
Reaktionen: Piehnat, Mysterion und madmax2010
tomtom 333 schrieb:
Der will ja damit nicht Geld verlieren ,sondern Geld verdienen !
Nichts bringt in der Software Industrie mehr Geld als gut gemachtes open source.

Außerdem verdienen sie Geld damit. Sie entwickeln und forschen daran, weil sie es in ihrern eigenen Produkten brauchen.

tomtom 333 schrieb:
Und ihr hofft irgendwie darauf das es euch persönlich möglichst auch noch kostenlos das Leben erleichtert....
Naja.. Die Lizenzbedingungen sind schon klar. Privat nutzen = kostenfrei
geschäftlich nutzen = Geld zahlen
 
DieIntilligente schrieb:
Ein echter Durchbruch wäre für mich persönlich ein KI Modell, welches ich ohne Abo, 100% offline und ohne Zensur einsetzen kann. Egal ob es um Text, Bild oder Video geht.
Zanza schrieb:
Wie soll das gehen ?
Das geht schon heute, und in Basis-Chat-Ausstattung sogar ziemlich einfach und auch auf vergleichsweise schwacher Hardware. Ein mal googlen/im Forum fragen, und man ist schlauer. :schluck:

Bilder und vor allem Videos sind aber noch lange nicht perfekt - das sind sie bei den großen Fischen in der Cloud aber auch nicht.

tomtom 333 schrieb:
Und ihr hofft irgendwie darauf das es euch persönlich möglichst auch noch kostenlos das Leben erleichtert....
Das wird nicht kommen, da findet sich ein Weg den Nutzern das Geld aus der Tasche zu ziehen.
Ganz sicher !
Da braucht man nicht zu hoffen, auf Huggingface (die de facto Standard-DB für LLMs) gibts beim Suchbegriff Llama rund 140k Ergebnisse, frei zum Download. Und da ist alles dabei: Klein, groß, vanilla, unzensiert, spezialisiert, und so weiter. In welche Richtung es in Zukunft geht steht in den Sternen, aber eine Bereicherung für die Softwarewelt haben sie schon geliefert.

Ich z.B. bin gerade selbst an einem eigenen, umfassenden Projekt dran, das leichte Ähnlichkeit mit MS's Copilot hat, aber halt komplett offline ist und in Nutzers Hand liegt. Werde dort wahrscheinlich den LlamaIndexer einsetzen, um die Dokumente auf dem System zu parsen und Inhalte zu sichten. Und es kostet mich stolze null euro. :P
 
  • Gefällt mir
Reaktionen: WiP3R und madmax2010
Zurück
Oben