Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Spitze in Benchmarks: Anthropics Claude Opus 4.5 schlägt Gemini 3 und GPT-5.1
- Ersteller Andy
- Erstellt am
- Zur News: Spitze in Benchmarks: Anthropics Claude Opus 4.5 schlägt Gemini 3 und GPT-5.1
Ruff_Ryders88
Rear Admiral
- Registriert
- Jan. 2008
- Beiträge
- 5.649
Also diese KI-News...da überholt doch wöchentlich einer den anderen. War vor einem halben Jahr nicht DeepSeek the biggest shit? Ist das jetzt wieder tot oder warum hört man nichts mehr? Diese Sensationsberichtserstattung nutzt sich bei mir ehrlich gesagt ziemlich ab.
konkretor
Artikeldetektiv
- Registriert
- März 2011
- Beiträge
- 7.907
Das ist egal welches LLM genutzt wird. Ich komme gut hin, bei täglicher Nutzung, reichen mir die Credits gut für einen Monat.User38 schrieb:@konkretor Danke für den Tipp! Sind die Credits dann pro LLM oder auf alle bezogen? Also kann ich z.B. wenn ich die Credits für ChatGPT aufgebraucht habe dann zu Gemini wechseln und habe dort dann wieder Credits? Und wie sind deine Erfahrungen bei "normaler" Benutzung wie lange die Credits halten?
Ich nehme an, die trainieren gerade neue Modelle. Das wird ja immer größer aufgezogen und dauert daher immer länger.Yosup schrieb:Was macht eigentlich mistral.ai so?
Zuletzt haben sie an Le Chat rumgebastelt und 1,7 Mrd. € Finanzierung eingesammelt. ASML (ja, die mit den Belichtungsmaschinen) ist bei denen eingestiegen. Ich sager daher mal, dass es denen im Moment gut geht.
interesTED
Lt. Junior Grade Pro
- Registriert
- Apr. 2017
- Beiträge
- 389
Ist halt bei neuen Gebieten so, kann verstehen, dass es als nicht-Nutzer da nicht so spannend ist Schritt zu halten, aber als Nutzer kann ich dir sagen, dass diese Entwicklungen relevant sind. Ich kann dir auch sagen, dass ich nicht nur eine sondern 3 KIs verwende, weil die unterschiedliche Stärken und Fähigkeiten haben. Claude kann am besten programmieren aber dafür keine Bilder, Perplexity ist eine Suchmaschine, Mistral ist schnell und günstiger, Google hat im Moment u.a. tolle Bilderstellungs-KI, wo Mistral bspw. immer noch hängt und nicht in der Lage ist korrekte deutsche Texte in Bilder zu schreiben... Nur über OpenAI kann ich nichts gutes berichten.Ruff_Ryders88 schrieb:Also diese KI-News...da überholt doch wöchentlich einer den anderen. War vor einem halben Jahr nicht DeepSeek the biggest shit? Ist das jetzt wieder tot oder warum hört man nichts mehr? Diese Sensationsberichtserstattung nutzt sich bei mir ehrlich gesagt ziemlich ab.
Zum Vergleichen habe ich meisten Chathub.gg genutzt (die haben alle Modelle), dann ist es Perplexity Pro und ChatGPT Plus geworden!
Außerdem kannst du die gleiche Frage auf verschiedene Modelle setzen können und so den Output vergleichen.
Außerdem kannst du die gleiche Frage auf verschiedene Modelle setzen können und so den Output vergleichen.
Ruff_Ryders88
Rear Admiral
- Registriert
- Jan. 2008
- Beiträge
- 5.649
@interesTED du irrst, ich nutze täglich KI und das auch recht intensiv. Trotzdem sind die Entwicklungen zum Teil ermüdend, da man sich kaum auf ein Tool fokussieren kann, ohne das Gefühl zu haben, ein Modell zu nutzen, dass schon wieder outdated ist.
fr0ntb0t
Cadet 4th Year
- Registriert
- Okt. 2010
- Beiträge
- 100
Das sieht https://artificialanalysis.ai/ aber anders. Intelligenz ist nicht alles, Preis und Geschwindigkeit sind auch wichtig. Für mich bleibt aktuell Gemini 3 Pro das beste Modell auch wenn ich bisher Claude-Anhänger war.
Die Festlegung auf eine Chattool/Agentensoftware vom LLM-Hersteller verstehe ich überhaupt nicht. Nutze eine Software oder Plattform, die dir die Wahl lässt, alles andere befeuert nur den Vendor-LockIn. Und nein, Microsoft/Azure bietet nicht alle Modelle zur freien Auswahl sondern tut nur so als ob.
OpenRouter nutzen und einfach Modell auswechseln – das ist doch die Fokussierung auf Tool und nicht Modell? Da ist nichts ermüdend? Einmal in der woche bei OpenRouter die Rankings abchecken und in der Software einen Haken setzen und fertig.Ruff_Ryders88 schrieb:du irrst, ich nutze täglich KI und das auch recht intensiv. Trotzdem sind die Entwicklungen zum Teil ermüdend, da man sich kaum auf ein Tool fokussieren kann, ohne das Gefühl zu haben, ein Modell zu nutzen, dass schon wieder outdated ist.
Die Festlegung auf eine Chattool/Agentensoftware vom LLM-Hersteller verstehe ich überhaupt nicht. Nutze eine Software oder Plattform, die dir die Wahl lässt, alles andere befeuert nur den Vendor-LockIn. Und nein, Microsoft/Azure bietet nicht alle Modelle zur freien Auswahl sondern tut nur so als ob.
Ruff_Ryders88
Rear Admiral
- Registriert
- Jan. 2008
- Beiträge
- 5.649
ja das habe ich oben gelesen und werde es mir anschauen.
fr0ntb0t
Cadet 4th Year
- Registriert
- Okt. 2010
- Beiträge
- 100
Kilo Code oder AnythingLLM oder Goose. Wenn es unbedingt CLI sein muss, kann man Claude Code nutzen und über https://github.com/musistudio/claude-code-router beibringen, dass andere APIs verwendet werden sollen.Slowz schrieb:Genau. Ich meine eine Alternative zu Claude Code und ChatGPT Codex, sodass man der KI Zugriff auf alle Dateien im Projekt geben kann. Ich habe aber eben recherchiert und es scheint nicht möglich zu sein.
Musste man bei OpenRouter früher nicht immer die API's selbst hinzufügen? Ist das jetzt neu das man direkt alle Models benutzen kann? Cool!fr0ntb0t schrieb:OpenRouter nutzen und einfach Modell auswechseln – das ist doch die Fokussierung auf Tool und nicht Modell? Da ist nichts ermüdend? Einmal in der woche bei OpenRouter die Rankings abchecken und in der Software einen Haken setzen und fertig.
fr0ntb0t
Cadet 4th Year
- Registriert
- Okt. 2010
- Beiträge
- 100
UrlaubMitStalin
Lt. Commander
- Registriert
- März 2011
- Beiträge
- 2.002
Java, Spring (Boot), Postgres, REST, etc. Also typischer Industrie-Standard fürs Backend.calluna schrieb:Wäre interessant zu Wissen, was deine Fachdomäne ist?
Und wie groß ist die Codebasis?
Code Basis kommt drauf an wie man es sieht, bei Microservices ist das natürlich immer relativ.
Ähnliche Themen
- Antworten
- 13
- Aufrufe
- 2.476