News Schlappe für Zuckerberg: Metas KI-Spitzenmodell Llama 4 Behemoth verzögert sich

blueGod schrieb:
Geht es nur mir so oder hat noch jemand den Eindruck, dass seit einigen Jahren bei Facebook durchweg falsche Entscheidungen getroffen werden, die viele Milliarden ohne spürbares Ergenis kosten.
in den letzten 10 Jahren hat sich der Kurs ver-8-facht

der Nettogewinn jedes Jahr hat sich in den letzten 10 Jahren fast ver-zwanzigfacht..

also nein - dürften doch nicht alles falsch machen
 
DieIntilligente schrieb:
Ein echter Durchbruch wäre für mich persönlich ein KI Modell, welches ich ohne Abo, 100% offline und ohne Zensur einsetzen kann. Egal ob es um Text, Bild oder Video geht.

Die anfängliche Marketinglüge, dass ein PC nicht genügend Ressourcen (Speicher, Performance, etc.) besitzt, wurde bereits widerlegt. Sprachmodelle konnten sogar ohne Internet auf einem Smartphone ausgeführt werden und mit der Zeit wird es effizienter werden.

Geld könnte man damit wie mit klassischer Software verdienen.
Ich bin bereit für ein gutes Sprachmodell 100-200 € zu zahlen, welches ich über Jahre nutzen kann, bis ich für ein deutlich besseres Modell erneut ähnlich viel Zahlen muss.

Eine Online-Lösung, besonders mit einem Abo, kommt aber auf keinen Fall in Frage! Und beruflich ist es sowieso vollkommen ausgeschlossen sensible Daten in eine Cloud zu schicken, welche garantiert für Wirtschaftsspionage eingesetzt wird.
Ich bin schon gespannt, was ich in 10 Jahren über KI-Skandale lesen darf, was mit "war doch klar" kommentiert wird, obwohl es für die Meisten doch nicht so klar ist.

Und wie soll das Modell an aktuelle Daten kommen? :)
Btw. es gibt genügend Offline Modelle.

Ich brauche KI beruflich echt viel, der Copilot ist ein echter Alltagsbegleiter.
Sharepoint, Exchange, Teams sind ja eh schon in der gleichen Cloud, von daher wayne. ;)
 
Die Namen von dem Zeug immer 😏 , die Rauchen definitiv das Falsche Zeug.
 
wegen mir können sich alle generativen modelle verzögern. für immer :D
 
madmax2010 schrieb:
Wie gut funktioniert deine NPU inzwischen? Ein freund schimpfte vor 6 Monaten noch sehr ueber die Toolchain
AMD ist bei den Möglichkeiten sehr hinter Nvidia hinterher.
Soweit ich das sehe funktioniert das Ding aber zumindest mit Ollama. Und die eigentlich nicht unterstützte interne Grafikkarte forciert, mit gesetzter Umgebungsvariable, dann auch.
 
Zurück
Oben