Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMuse Spark: Was Metas erstes Modell der neuen KI-Abteilung leistet
Muse Spark ist das erste Modell, das Metas neue Abteilung – und für Milliardensummen eingekaufte – Superintelligence Lab entwickelt hat. Es ist das technische Grundgerüst für den KI-Assistenten Meta AI und wird in den kommenden Wochen für WhatsApp, Instagram, Facebook, den Messenger sowie die AI Glasses ausgerollt.
Meta hat einige Benchmarks angegeben. Dazu ist es auf artificialanalysis mit 52 Punkten knapp hinter Gemini 3.1 Pro, GPT-5.4 und Opus 4.6 in der Gesamtwertung eingestiegen.
Gleichzeitig muss man sagen, dass es die Basis für einige Modelle sein wird und nicht das größte Modell ist. Ich denke daher, dass es nach dem Llama 4 Desaster ein sehr guter Neustart ist.
Würde schon sagen, dass es state of the art ist, weil es offenbar Sonnet 4.6 Leistung in massiv günstiger ist. Zumindest, wenn es sich dann auf dem Cost to Run Artificial Analysis Intelligence Index wirklich so einsortiert, sobald deren Test mal komplett ist.
Unerwartet und Meta (ihh), aber ist wohl trotzdem so. Dieses Jahr scheint durch eine wesentlich gesündere Wettbewerbssituation bei LLMs geprägt zu sein als das letzte.
denke das wird für viele nicht-power-user ganz gut passen..
Whatsapp ist auf vielen Handies wahrscheinlich die meistgenutzte App.. die immer offen ist..
und statt der Mama zu schreiben wann man nun die Samen frühestmöglich am Balkon aussähen darf, wird halt George, dein KI-Assistent in seinem Chat gefragt..
ähnlich ja bei Openclaw.. wo das "magische" Element (laut Steinberger) die Kommunikation mittels eines normalen Chat-clients am Handy ist
der echte poweruser will seine KI per console steuern.. jaja...
aber für viele Leute wird es die letzte Hemmschwelle lösen, da sie kein App irgendwo suchen müssen (kennen müssen), kein KOnto registieren müssen, Passwort merken etc. etc...
sondern es ist einfach im Whatsapp-chat drinnen, das Whatsapp, das der Enkel vor 5 Jahren damals schon eingerichtet hat...
Ich finde es erstaunlich wie Großkonzerne wie Meta unabhängig von anderen Großkonzernen wie Google sein wollen ohne etwas wie LLMs bei ihnen zu mieten, aber jeder soll von ihnen abhängig sein. Das ist wirklich China-Mentalität. Denn China will auch bis 2050 von jedem anderen Land unabhängig werden aber natürlich soll gleichzeitig jedes andere Land von China abhängig werden.
Wenn die glauben würden dass von Großkonzernen abhängig werden etwas gutes wäre, dann würden sie es selbst praktizieren. Sie tun es aber nur wenn sie keine Alternative haben wie Hardware kaufen von Nvidia.
Glückwunsch Meta, ihr habt jetzt Fantastilliarden ausgegeben für etwas, was ihr hättet sofort von zig anderen hättet einkaufen können.
Ich kann ja Unabhängigkeit verstehen, aber im Endeffekt geht es ums Geld machen. Und wenn x andere vergleichbare Performance liefern, dann kauft doch einfach billig ein.
Ich kann mir im leben nicht vorstellen, dass andere Firmen bei Meta KI-Leistungen einkaufen werden. Also werden sie die KI doch eh nur für sich selbst brauchen und für Ihre Nutzer.
Apple scheint mir im Moment der einzig vernünftige zu sein.
Ich bin ja froh über jede Konkurrenz, damit wir kein Monopol wie bei der Google-Suchmaschine inklusive Chrome sehen.
Und seien wir mal ehrlich: Ich kann die Kritik bei reinen KI-Firmen, die kein direktes Kapital haben, völlig verstehen. Aber wenn Google oder Meta jedes Jahr Milliarden an Gewinnen machen, warum sollen sie diese nicht investieren? Wird es funktionieren? Vielleicht, vielleicht auch nicht. Aber Forschung und Entwicklung sind doch besser, als weitere 100 Milliarden auf dem Konto von Zuckerberg.
Wenn man wie Meta eine große Nutzerbasis hat, dann macht eine grundsätzliche Entwicklung und Investition eigentlich immer Sinn. Man muss ja nicht einmal das beste Produkt haben oder es verkaufen. Man kann es einfach den eigenen Kunden anbieten.
Je mehr Alternativen desto besser, in der Regel ists dann halt ne Kosten/Nutzen/Effizienz Rechnung. Gemini 3.1 Pro hat ja zB. unheimlich gute Coding Ratings, scheiterte bei meinen Tests aber schon an einfachen SQL Queries bzw. war alles was irgendwie Bash/Terminal Bezug hatte auch sehr mies; obwohl ja mit explizit guten Terminal-Bench Hard Ergebnissen geworben wurde. Es gibt aber bestimmt auch genug Personen die Aufgrund der letzten Patzer / schlechten Kommunikation bei Anthropic wechseln würden; darunter auch ein paar Entwickler die schon in die Nachtschicht gewechselt hatten.
Je mehr Alternativen desto besser, in der Regel ists dann halt ne Kosten/Nutzen/Effizienz Rechnung. Gemini 3.1 Pro hat ja zB. unheimlich gute Coding Ratings, scheiterte bei meinen Tests aber schon an einfachen SQL Queries bzw. war alles was irgendwie Bash/Terminal Bezug hatte auch sehr mies; obwohl ja mit explizit guten Terminal-Bench Hard Ergebnissen geworben wurde.
Das sieht offenbar so ziemlich jeder so, der Gemini für Coding probiert hat. Das scheint wirklich extrem gebenchmaxt zu sein, wahrscheinlich ist selbst Minimax M2.7 in der Realität oft wesentlich besser.
Dieser Punkt ist so unfassbar wichtig, dass er in jeder KI-News stehen sollte. Leute lassen sich von Zahlen blenden, ohne zu verstehen, was sie sich da überhaupt anschauen, und ziehen daraus Schlussfolgerungen.
Ayo34 schrieb:
Meta hat einige Benchmarks angegeben. Dazu ist es auf artificialanalysis mit 52 Punkten knapp hinter Gemini 3.1 Pro, GPT-5.4 und Opus 4.6 in der Gesamtwertung eingestiegen.
Was genau meinst du mit "1 Benchmark"? Alleine oben im Bild siehst du doch 20 Benchmarks unterschiedlichster Kategorien und da sieht man, dass das Modell gerade im multimodalen Bereich, als das was für Meta wichtig ist, glänzen kann. Bei Programmierung hingegen ist man noch ein gutes Stück entfernt.
@Ciero Mein ganzer Beitrag, der ausführliche Beitrag von Meta, jede Menge Benchmarks. Ich weiß einfach nicht wie du auf einen Benchmark kommst. Artificialanalysis setzt ja seine Gesamtwertung auch nicht aus einem Benchmark zusammen...
Das ist eine Gesamtwertung, da ist es auf Rang 4. Das alte Modell ist übrigens ganz Rechts mit 18 Punkten, das größte Llama Modell.
Artificialanalysis ist ein Benchmark, der zusätzlich aus Relevanzgründen hinzugezogen wurde. Dass es sich um einen Benchmark handelt, der sich aus mehreren Benchmarks zusammensetzt, ist nur eine Spitzfindigkeit, auf die du gerade Wert legst.
Nochmal:
Was ist nun deine Schlussfolgerung, dass Metas Modell in deinem zusätzlichen hinzugezogenen Benchmark kurz hinter Anthorpic & Co ist?