News Neues ChatGPT-Modell: GPT-5.3 soll flüssigere Gespräche und weni­ger Halluzinationen bieten

Danke Nein Sam Altman. Kannst gerne auf deinen Modellen sitzen bleiben.
 
  • Gefällt mir
Reaktionen: lynx007, rapanui, Tera_Nemesis und 12 andere
Die Modelle sollen gar nicht halluzinieren, sondern sagen, dass sie auf die bestimmte Fragenstellung keine Antwort geben können.
 
  • Gefällt mir
Reaktionen: lynx007, xXBobbyXx, Brainorg und 26 andere
Ich bin längst bei Claude. ChatGPT war lustig, aber ich verschwende keine Ressourcen mehr dafür. Wenn, dann wird produktiv mit KI gearbeitet und kein Slop generiert.
 
  • Gefällt mir
Reaktionen: fox40phil, cele, aid0nex und eine weitere Person
Soso, die Halluzinationsrate sinkt also um 26%?

Man mag sich vor Augen führen, dass 4% halluzinieren um 26% gesenkt immer noch 3% halluzinieren bedeutet. Das ist ein Tropfen auf den heißen Stein. Und fundamental ein nicht lösbares Problem mit der derzeitigen Art wie LLMs funktionieren.
 
  • Gefällt mir
Reaktionen: cele
Für ernsthafte Sachen kann man ChatGPT nicht mehr verwenden..
 
  • Gefällt mir
Reaktionen: common und racer3
Ist ja schon wie mit Shampoo, Zahnbürsten, Zahnpaste usw. Werbungen, wo jedes neues Modell X% besser/schneller ist als der Vorgänger :D
 
  • Gefällt mir
Reaktionen: fox40phil und racer3
nope, seit dem deal mit dem pentagon habe ich nun endgültig keine lust mehr auf chatgpt
 
  • Gefällt mir
Reaktionen: monstar-x, foxcy, fox40phil und 5 andere
Ich habe letztens mal LMStudio mit qwen3.5 9B getestet und das läuft für mich ganz gut. Leider hat es ein paar Schwierigkeiten mit Deutsch. Aber für meinen KI Gebrauch reicht es auf jeden Fall.
 
  • Gefällt mir
Reaktionen: coral81, sioh, konkretor und eine weitere Person
Sun-Berg schrieb:
l LMStudio mit qwen3.5 9B getestet und das läuft für mich ganz gut. Leider hat es ein paar Schwierigkeiten mit Deutsch.
Ich nutze Ollama mit qwen3.5:9b (zusätzlich noch die Browser Erweiterung Page Assist - A Web UI for Local AI Models)und konnte keine Probleme festellen mit Deutsch.
Ich finde es eher beeindruckend was so ein kleines Model alles kann, auf GPT kann ich verzichten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lendi, konkretor und Sun-Berg
MAYvonBlei schrieb:
Die Modelle sollen gar nicht halluzinieren, sondern sagen, dass sie auf die bestimmte Fragenstellung keine Antwort geben können.
richtig. Wobei ich da Gemini noch viel schlimmer empfinde. Was da ein zusammenfabulierter Käse herauskommt, bei dem man 5mal fragen muss, ob das sicher so sei: katastrophal (für aufmerksame User).
 
Ich nutze Qwen3.5 35B mit meiner 4090. 100token/sec ist gut. Zusammen mit Suchmaschinen-Plugin (danielsig/duckduckgo) ist das ganz passabel.
 
  • Gefällt mir
Reaktionen: coral81, Lendi und menace_one
"Weniger Halluzinationen"

Das wäre echt mal gut.
Es ist unglaublich, was das Teil oft für Sachen einfach erfindet.

Gestern eine PDF von einem Hausplan hochgeladen.
Bitte erstelle mir eine Liste mit den m² der Räumen.

ChatGPT erstellt dann einfach eine Liste.
Beim genaueren betrachten fällt mir auf, dass die m² und Räume nicht passen.

Es konnte die Räume und m² nicht erkennen und anstatt das zu sagen, hat es einfach etwas erfunden.
Das ist lächerlich.
Da muss dann einfach eine Fehlermeldung kommen.
 
  • Gefällt mir
Reaktionen: Relict, cele und aid0nex
Strikerking schrieb:
Ich nutze Ollama mit qwen3.5:9b und konnte keine Probleme festellen mit Deutsch.
Ich finde es eher beeindruckend was so ein kleines Model alles kann, auf GPT kann ich verzichten.
Ja komisch. Das lag eventuell daran, dass ich es habe eine Reihe von Dingen übersetzen lassen. Ich hatte bestimmt 3 Orthographie Fehler in 20 Sätzen. Aber egal. Es erfüllt ansonsten alle meine Ansprüche. Liest meine pdfs, erstellt Latex Code etc. Wozu sollte ich noch ein Abo bezahlen. Im Noftall kann ich auch noch andere Modelle nehmen. LMStudio als Server mit meinem Synology VPN ermöglicht sogar den Zugriff von Aussen mit dem MacBook Air.

edit: Gerade nochmal getestet: "Beide betonen, dass der Mensch nicht ein passives Empfänger von Daten ist, sondern die Realität konstituiert".
Das Modell "denkt" in Englisch und übersetzt es dann ins Deutsche und dabei entstehen offenbar Fehler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lendi
MAYvonBlei schrieb:
Die Modelle sollen gar nicht halluzinieren, sondern sagen, dass sie auf die bestimmte Fragenstellung keine Antwort geben können.

Exakt!
Das nächste große neue Feature sollte endlich mal sein, dass KI Chatbots auch mal zugeben, wenn ihre Wahrscheinlichkeiten so unsicher sind, dass sie schlichtweg keinen sinnvollen Output produzieren können.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und knoxxi
coxon schrieb:
Ich bin längst bei Claude. ChatGPT war lustig, aber ich verschwende keine Ressourcen mehr dafür. Wenn, dann wird produktiv mit KI gearbeitet und kein Slop generiert.
Wie behält man eigentlich den Überblick welche Plattform nun "die Beste" ist?
 
  • Gefällt mir
Reaktionen: UNI (T) CORE
@silent2k Ausprobieren.. Ergebnisse vergleichen.. Alles sehr mühsam und die ändern sich auch ständig..
 
  • Gefällt mir
Reaktionen: stevefrogs, Innocience, silent2k und eine weitere Person
"ChatGPT Plus: Dein Plan wird am 13. März 2026 gekündigt"

Die kleinen Genugtuungen des Alltages.
 
  • Gefällt mir
Reaktionen: robin631, foxcy und coxon
silent2k schrieb:
Wie behält man eigentlich den Überblick welche Plattform nun "die Beste" ist??
Wozu? Macht doch keinen Sinn. Du nimmst die Plattform die für deine Anwendung das beste Profil bietet und nutzt sie so lange sie nützlich und produktiv ist. Wenn sie das nicht mehr ist, wechselst du zur nächsten.

Claude erfüllt in meinem Fall alle Anforderungen die ich an eine KI bezüglich Linux habe.
 
  • Gefällt mir
Reaktionen: lynx007, Kuristina und aid0nex
Zurück
Oben