Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMistral AI vs. GPT Builder: Le Chat erhält neue und leistungsfähigere Agenten
Mistral AI baut die Möglichkeiten seines Chatbots aus und erweitert diesen um neue Agenten-Funktionen, welche die bisher eher begrenzte Agenten-Builder-Schnittstelle ersetzen sollen und es ermöglichen, autonome Agenten mit einem intuitiveren sowie robusteren Setup zu erstellen und individuell anzupassen.
Die Latenz von Le Chat ist jetzt schon extrem gut. Speziell bei einfachen Fragen ist das Ding massiv schnell und bei mir auf dem Smartphone die AI, welche ich am liebsten nutze.
Schade ist dieser noch nicht im AI Assistant von Jetbrains aktiv. Hier möchte ich mehrheitlich europäische Produkte nutzen.
LeChat hat es eigentlich gar nicht nötig, noch schneller zu werden. Stattdessen muss dringend die Quellensuche besser werden. Wenn mir bei schnellen Fragen Mumpitz geantwortet wird und ich mindestens genauso schnell einen Wikipediaartikel über das Thema mit der richtigen Antwort finde, dann läuft noch etwas schief.
Ich habe jetzt für kleinere Programmiersachen (simple python funktionen, docstrings schreiben, und auch yaml configs erzeugen) getestet. Dazu habe ich testaccounts (bezahlaccounts) bei openai, google gemini und lechat gemacht.
So ganz überzeugt hat mich lechat nicht. Gemini ist ein auf und ab, oft wirklich super, und man denkt sich: super, dabei bleibe ich, und dann kommt wieder ein kompletter Unsinn raus. Openai ist derweil overall die beste Option.
Aber das kann sich ja von Quartal zu Quartal ändern.
@gaelic ich würde dir Raten mal Claude 3.7 Sonnet oder neuer zu testen. Für Programmieraufgaben liefert der bei mir Konsequent die besten Ergebnisse, insb. wenn du in iterativen schritten arbeitest ist sein Reasoning oft viel sinniger.
3.5 lässt sich bspw. in VS Code mit der Free-Variante von Copilot schon testen. AI Assist, falls du mit PyCharm arbeitest solltest du den ja auch nutzen können, beherrscht 3.7 auch im free Modell.
@7hyrael ich bin gerade dabei zu testen und auch recht angetan. Die freie Varianten hat mich anfangs nicht überzeugt, die Bezahlvariante schon. Aber das ist bei eigentlich allen AI Sachen so, die Gratisvarianten machen sich ganz gut, aber man stößt dann (je nach Anwendungszweck) schnell mal an die Grenzen.
Für das was ich mit Scripting mache reicht die Kostenlose in VS Code.
Da muss ich vorwiegend uraltes ColdFusion (17 Jahre alte jQuery Version die am Samstag "Geburtstag" hatte" inklusive... horror) anfassen und lass mir etwas helfen. Schlimmer als der Code der da ist kann es quasi nicht werden... Und ich bin KEIN ColdFusion-Dev. Davon distanziere ich mich vehement
Im Jetbrains Rider spring ich immer mal mit Claude 3.7 Sonnet oder GPT-4.1 mini rum. Beide liefern gute Ergebnisse.
Ich nutze Duckduckgo als Suchmaschine und seit 2 Tagen teste ich Duck.ai mit Mistral.
Bis jetzt bin funktioniert es auch wenn die PC Systemzusammenstellungen mindestens 2 Generationen veraltet sind die KI empfiehlt einen i7 12700 oder i5 12500 oder AMD 5800X3D. Bei Grafikkarten die 40er Serie.
Schönen Tag noch. Wagga
@daVinci Le Chat bedeutet übersetzt "der Kater", daher das Icon mit der Katze. Es ist aber auch ein Wortspiel, weil das englische Wort "Chat" (de: quatschen, unterhalten) auch mittlerweile im französischen Einzug erhalten hat.
Ich habe nun keinen Vergleich, da Le Chat das einzige LLM ML Modell ist, das ich nutze. Aber grob kann ich das bestätigen. Le Chat sollte mir schon mehrfach für eigentlich recht simple Aufgaben PowerShell Scripts schreiben. Funktioniert hat leider kein einziges Script davon.
Bei klassischeren Aufgaben bin ich aber recht angetan von Le Chat. Grenzen hat es natürlich trotzdem... Von Halluzination bis zum schlichten direkten Hinweis, dass es keine Informationen dazu hat.
Trotzdem ist es für mich ein ganz brauchbarer kleiner Helfer geworden. Meist immer dann, wenn ich über die klassische Suchmaschine mangels genauer Suchbegriff Kenntnis keine schnellen Ergebnisse erzielt hätte.
Da das Model Open Source ist, kannst du es lokal mit ollama oder LM Studio laufen lassen. Mittlerweile kannst du lokale Models bei Jetbrains integrieren. Das ganze sind höchstens 2-3 Installationsschritte und wirklich sehr einfach. Ich hab alle Abos gekündigt.