Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neues ChatGPT-Modell: GPT-5.3 soll flüssigere Gespräche und weniger Halluzinationen bieten
Schnatterente
Lieutenant
- Registriert
- Okt. 2010
- Beiträge
- 707
welches sind denn Deine Zwecke ?
AmDati
Ensign
- Registriert
- Apr. 2025
- Beiträge
- 187
Irgendwie fremdle ich mehr und mehr mit Angeboten von Firmen oder deren "Ideengebern", die mir zu suspekt sind..., und die Altman'schen Aussagen sind auf der nach oben offenen Trump-Musk-Skala mir zu weit OOR...
Vielleicht werde ich alt und / oder leide unter Verfolgungswahn...!?
Vielleicht werde ich alt und / oder leide unter Verfolgungswahn...!?
monstar-x
Lieutenant
- Registriert
- Aug. 2007
- Beiträge
- 664
Ultra_Force schrieb:Ist ja schon wie mit Shampoo, Zahnbürsten, Zahnpaste usw. Werbungen, wo jedes neues Modell X% besser/schneller ist als der Vorgänger![]()
Ja, das denke ich mir auch jedes Mal wenn ich Spülmittel verwende, eigentlich müsste ein Tropfen sämtliche Reste auflösen und die Pfanne, Teller wie neu aussehen lassen, ohne auch nur einmal zu schrubben. Ist aber nicht so, genauso gut wie vor 40 Jahren.
Wird hier ähnlich sein :-)
DeusExMachina
Lieutenant
- Registriert
- Jan. 2008
- Beiträge
- 583
MAYvonBlei schrieb:Die Modelle sollen gar nicht halluzinieren, sondern sagen, dass sie auf die bestimmte Fragenstellung keine Antwort geben können.
Aber das ist doch die Crux
Das ist technisch gar nicht möglich
Ein LLM ist eine Statische Matrix Multiplikation plus ein paar vor und nach geschaltete Filter.
Ein LLM kommt immer zu einem Ergebnis es kann nicht wissen was es nicht weiß also kann es eben auf eine Frage nie keine Antwort haben.
Das sogenannte Reasoning oder auch das anbinden an das echte life Internet lösen ja auch nur mehre Berechnungläufe aus.
Aber halt immer gegen den nach dem Training unveränderlichen Datenkern des LLM
Zotac2012
Admiral
- Registriert
- Apr. 2012
- Beiträge
- 7.792
Claude, Gemini und ChatGPT sind meine täglichen Begleiter in vielen Bereichen, und ich möchte sie nicht mehr missen. Allerdings setze ich ChatGPT aufgrund der hohen Kosten und des geringen Volumens im Free-Bereich nur noch sehr gezielt dort ein, wo es mir die besten Ergebnisse bringt – ansonsten sind Claude und Gemini ebenfalls treue Weggefährten.
lynx007
Rear Admiral
- Registriert
- Feb. 2011
- Beiträge
- 5.462
Das wäre negativ und unrealistisch! Schau die Beraterstäbe von Poltikern an! Daran wird man sich orienteiren. Niemand will die Wahrheit hören. Das postive Nutzerelebnis steht um Vordergrund.MAYvonBlei schrieb:Die Modelle sollen gar nicht halluzinieren, sondern sagen, dass sie auf die bestimmte Fragenstellung keine Antwort geben können.
Also dieser Wall of Text, am Thema vorbei gehen mir auch auf den Sack und die lügerei, gehen mir auch extrem auf den Sack. Aber "flüssiger Gesprächsfluss" sagt mir auch, das man am Kernproblem vorbei "Deepen" wird!
Was will ich mit nem Bot der ,mich Belügt und meine Zeit stielt. "Gute Medizin schmeckt bitter". Aber damit verdien eich kein Geld. Man verdient Geld mit Hömiopathie, sprich Zucker, Verdünung und Schwachsinn. Und darauf wird es hinauslaufen. Auf RTL2-Bots, ausgerichtet auf die Durchnittintelligenz der Weltbevölkerung.
Aber natürlich kann und wird man das so nicht verkaufen.
Ich will ja kein Schwarzmahler sein. Aber ich befürchte das wird so übel enden. Man muss sich ja nur Sozial Media anschauen, mit ihren Bubles... . Die Blühten werden wohl die gleichen sein. Die Bots werden nicht weniger "Lügen". SOndern einfach nur geschickter werden das Thema so zu verbiegen das es der Mehrheit nicht auffällt und sich die Nutzung positiv anfühlt.
Außerdem, das kenn ich schon sehr von Deepseek.... dort bekommt man schnell die standart klausel, darauf kann ich keine Antwort geben. Ok, besser als seine Zeit zu verschwenden. Aber über kurz oder lang werden aller nur noch Zensierten Bullshot von sich geben. Und ob das besser wäre als das "hallozinieren", halte ich auch wieder für mehr als nur fraglich.
Ergänzung ()
Da stimme ich zu. Aber wie willst du das ohne vergleichbarkeit beurteilen. Insbesondere wen man qulität und güte immer weniger beurteilen kann. Wen jemand etwas von Hand codet, dann ist das relativ leicht, weil dort hat man reffernzpunkte. Bei sowas, so ein blackbox, die keine gegenprüfungen zulässt, ist eine pauschale aussage "solange nützlich und produktiv" sehr Gefährlich. Ohne die Technologie schwarzmahlen zu wollen. Aber die Dinger öffnen dem Missbrauch ja alle Tore. Und es wird Missbraucht werden. Schon allein weil für vieles keine Gesetze da sind.coxon schrieb:Wozu? Macht doch keinen Sinn. Du nimmst die Plattform die für deine Anwendung das beste Profil bietet und nutzt sie so lange sie nützlich und produktiv ist. Wenn sie das nicht mehr ist, wechselst du zur nächsten.
Claude erfüllt in meinem Fall alle Anforderungen die ich an eine KI bezüglich Linux habe.
Ergänzung ()
DeusExMachina schrieb:Aber das ist doch die Crux
Das ist technisch gar nicht möglich
Das stimmt so auch nicht! Wie sie schon anmerken, es ist eine statistische Matrix. Aber alles in der Natur ist nur statistik wie wir duch Heisenberg wissen. Es wird auf viele Agenten hinauslaufen die man kombiniert und halt unterschiedliche Funktionen haben. Wir sind noch weit weg von der AGI. Aber Bullshit Prüfung, das lernt man bei Mathe in der ersten Klasse. True & False.
Hört sich jetzt einfach an als es ist. Aber ich sehe die Gefahr eher auf menschlicher als auf technischer Ebene, das man bewusst bestimmte Features, Funktionen umgeht, weil sie Geld kosten, den Aufwand vergrößertn und den Ertrag mindern und die Politik solange schmiert, wie es geht und Gesetze drum herum baut.
Beispiel BingAI. Dort hebelt man bestimmte Funktionen seit kurzen komplett raus, bzw hat sie auf Paid version ausgelagert. Und man wird das immer so öffentlich verkaufen, das man das nicht anders machen kann. Wie die Sollbruchstellen, geplante Obsolenz die wir sowieso schon überall sehen. Jeder kennt Xerox und HP! Und dieser Abfall wird mit diesen AI Dingern zu 100% wiederkommen.
Zuletzt bearbeitet:
TøxicGhøst
Lieutenant Pro
- Registriert
- Mai 2020
- Beiträge
- 989
Die Verbesserungen begrüße ich sehr.
5.2 war bei mir richtig schlecht.
5.2 war bei mir richtig schlecht.
coxon
Fleet Admiral
- Registriert
- Mai 2005
- Beiträge
- 12.772
Kann ich als Laie und Endanwender nicht. Ich habe mit ChatGPT keine guten Erfahrungen gemacht, kam mir teils echt verarscht vor und dieses LLM hat einfach ein super nerviges Verhalten an den Tag gelegt das mich schnell von weiterer Nutzung hat absehen lassen. Aus den Medien habe ich gehört welche der KIs für meine Linux-Reise nützlich sein könnten und bin bei Claude gelandet und wurde nicht enttäuscht, denn es hat mich zuverlässig dort hin gebracht wo ich hin wollte.lynx007 schrieb:Aber wie willst du das ohne vergleichbarkeit beurteilen.
Das verstehe ich nicht so ganz. Wenn die KI mir nen Code schreibt/generiert (und ich coden kann), dann schaue ich doch wenigstens mal drüber, oder?lynx007 schrieb:Bei sowas, so ein blackbox, die keine gegenprüfungen zulässt
Du malst hier überhaupt nichts schwarz und deine Sorgen sind durchaus berechtigt! Ich habe die Tage einen Clip gesehen bei dem Claude dazu missbraucht wurde diverse Seiten zu auszuspionieren und zu infiltrieren einfach nur weil man dem Werkzeug sagte, dass man hier einen Test mache. LLMs sind keine Menschen, daher auf zwischenmenschlicher Ebene richtig dumm, aber nicht perse schlecht, dennoch in den falschen Händen extrem gefährlich.lynx007 schrieb:Ohne die Technologie schwarzmahlen zu wollen. Aber die Dinger öffnen dem Missbrauch ja alle Tore.
habichtfreak
Captain
- Registriert
- Aug. 2006
- Beiträge
- 3.632
Ich weiß nicht ob es unter halluzinieren fällt, aber vorgestern habe ich ChatGPT nach infos aus einem Datenblatt gefragt. Die Antwort war ... merkwürdig. Also habe ich mir mal die Quelle angesehen. Statt eines Datenblatts eines Hersteller, sah es aus als hätte jemand mit Word was ... zusammengeklöppelt. Es hätte genügend echte Datenblätter im Netz gegeben, aber nein, es nimmt das eine falsche.
An ende sucht man die Antwort selbst, die zunehmende Werbung (Antworten sind die Werbung) finde ich langsam nervig. Und dann noch dieses "du hast noch 2 Nachrichten, aber willst du nicht mal Premium kaufen, dann kannst du mich weiter nutzen?", ich glaube da geht gerade etwas den Bach herunter ...
Wenn dabei hilft das ich mir irgendwann mal wieder ne neuen PC leisten kann, solls mir recht sein
An ende sucht man die Antwort selbst, die zunehmende Werbung (Antworten sind die Werbung) finde ich langsam nervig. Und dann noch dieses "du hast noch 2 Nachrichten, aber willst du nicht mal Premium kaufen, dann kannst du mich weiter nutzen?", ich glaube da geht gerade etwas den Bach herunter ...
Wenn dabei hilft das ich mir irgendwann mal wieder ne neuen PC leisten kann, solls mir recht sein
- Registriert
- Juni 2007
- Beiträge
- 7.361
Sollte das aufsteigen heißen? Mir sagt zumindest aufstiegen nichts und im Duden sucht er mir damit nur andere Sachen (meteorhaft, emporhelfen), aber direkt auf "aufstiegen" finde ich nichts.Andy schrieb:Die Pro- und Thinking-Varianten sollen ebenfalls bald auf 5.3 aufstiegen.
DeusExMachina
Lieutenant
- Registriert
- Jan. 2008
- Beiträge
- 583
lynx007 schrieb:Das stimmt so auch nicht! Wie sie schon anmerken, es ist eine statistische Matrix. Aber alles in der Natur ist nur statistik wie wir duch Heisenberg wissen. Es wird auf viele Agenten hinauslaufen die man kombiniert und halt unterschiedliche Funktionen haben. Wir sind noch weit weg von der AGI. Aber Bullshit Prüfung, das lernt man bei Mathe in der ersten Klasse. True & False.
Das geht nicht ohne das die LLM ein Kontextverständnis bekommen. Die Matrix liefert immer ein Ergebnis, und jedes Ergebnis größer 0 ist truthy und wird für den nächsten Token genommen
Und was das immer mit den Agent soll
Agenten Systeme können bereits als gescheitert betrachtet werden da sie ebenfalls die Heilsversprechen nicht erfühlen und höchstwahrscheinlich architektonisch bedingt auch nie werden können.
Wenn ein 80% System ein anderes 80% System Kontrolliert ist die Wahrscheinlich für einen Fehler halt größer als würde es nur ein 80% System geben
Zuletzt bearbeitet:
Zweite Sonja
Ensign
- Registriert
- Jan. 2026
- Beiträge
- 142
Wenn die KI dem Menschen ähnlich sein soll, dann muss sie aber eine falsche, statt keine Antwort geben. 🤡MAYvonBlei schrieb:Die Modelle sollen gar nicht halluzinieren, sondern sagen, dass sie auf die bestimmte Fragenstellung keine Antwort geben können.
Oder eine politisch korrekte Antwort, die man in der jeweiligen Gesellschaft erwartet, ganz unabhängig von der Realität.
Deshalb eigenen sich KIs meiner Erfahrung nach nicht für politische oder soziale Fragen.
Für mathematische Lösungswege, Zusammenfassungen oder Optimierung von Texten oder zur Findung von Film-Namen sind sie aber super.
Da mit so hervorragenden Quellen wie Reddit trainiert wird, weiß die KI wann sie etwas nicht weiß oder Blödsinn erzählt.MAYvonBlei schrieb:Die Modelle sollen gar nicht halluzinieren, sondern sagen, dass sie auf die bestimmte Fragenstellung keine Antwort geben können.
jackii
Lt. Commander
- Registriert
- Juni 2011
- Beiträge
- 1.960
Oder mit einem Update eben 1/4 besser, kein so kleiner Tropfen. Da es niemand einfach gänzlich lösen kann, ist das schon ganz ordentlich und hilfreich.Innocience schrieb:Man mag sich vor Augen führen, dass 4% halluzinieren um 26% gesenkt immer noch 3% halluzinieren bedeutet. Das ist ein Tropfen auf den heißen Stein. Und fundamental ein nicht lösbares Problem mit der derzeitigen Art wie LLMs funktionieren.
chillipepper
Lieutenant
- Registriert
- Dez. 2022
- Beiträge
- 755
ChatGPT wird nur eins: immer schlechter.
Wenn sich in einer Unterhaltung neue Anforderungen ergeben, merkt sich die KI diese nicht.
Bei den folgenden Fragen sind die Ergebnisse dadurch noch schlechter, als ohnehin schon.
Anweisungen werden auch immer schlechter verstanden. Wenn man die KI auffordert, etwas als neue Anforderung fürs Memory zu formulieren, dann wird das ohne Review des Nutzers direkt ins Memory geschrieben und lässt sich nachher noch nicht mal ersetzen oder gar löschen.
Die KI hat auch häufig einen unangemessen klugscheißerischen Ton am Leib, der ohnehin angesichts der oft miserablen Qualität völlig unangemessen ist. Kritik an Ausgaben wird erst nicht beantwortet, stattdessen wird man mit ähnlichem Sermon noch einmal zugetextet.
Zwischendurch unpassende Abfragen, ob man Antwort-Variante A oder B bevorzugt.
Ist ja lieb gemeint, aber bei einer längeren Antwort ist die Art der Darstellung ein schlechter Scherz.
Ich würde eine kurze Zusammenfassung zum Einstieg erwarten, worin sich die beiden Varianten im Wesentlichen unterscheiden, und dann die Änderung in Variante B in fett markieren.
Kein Mensch hat Zeit, sich den ganzen Müll Wort für Wort zu vergleichen.
Zu Anfang war ChatGPT besser im Begreifen, was man von der KI möchte, und der Kontext wurde besser verstanden und besser bei der Antwort berücksichtigt. Jede neue Version ist bisher nur noch schlechter gewesen.
Wenn sich in einer Unterhaltung neue Anforderungen ergeben, merkt sich die KI diese nicht.
Bei den folgenden Fragen sind die Ergebnisse dadurch noch schlechter, als ohnehin schon.
Anweisungen werden auch immer schlechter verstanden. Wenn man die KI auffordert, etwas als neue Anforderung fürs Memory zu formulieren, dann wird das ohne Review des Nutzers direkt ins Memory geschrieben und lässt sich nachher noch nicht mal ersetzen oder gar löschen.
Die KI hat auch häufig einen unangemessen klugscheißerischen Ton am Leib, der ohnehin angesichts der oft miserablen Qualität völlig unangemessen ist. Kritik an Ausgaben wird erst nicht beantwortet, stattdessen wird man mit ähnlichem Sermon noch einmal zugetextet.
Zwischendurch unpassende Abfragen, ob man Antwort-Variante A oder B bevorzugt.
Ist ja lieb gemeint, aber bei einer längeren Antwort ist die Art der Darstellung ein schlechter Scherz.
Ich würde eine kurze Zusammenfassung zum Einstieg erwarten, worin sich die beiden Varianten im Wesentlichen unterscheiden, und dann die Änderung in Variante B in fett markieren.
Kein Mensch hat Zeit, sich den ganzen Müll Wort für Wort zu vergleichen.
Zu Anfang war ChatGPT besser im Begreifen, was man von der KI möchte, und der Kontext wurde besser verstanden und besser bei der Antwort berücksichtigt. Jede neue Version ist bisher nur noch schlechter gewesen.
Naja bezüglich Halluzination gibt es ja nun erste wirklich interessante und auch in der Praxis vielversprechende Ansätze und Ergebnisse - das könnte echt ein Gamechanger werden - wenn auch bei grossen Netzen sehr grosse Aufwand = energieintensiv.
https://github.com/thunlp/H-Neurons
https://arxiv.org/html/2512.01797v1
Nur das könnte das wert sein - die Ergebnisse sind halt schon super gut, dass man das damit in Zukunft in den Griff bekommen kann - evtl was für 6.0 ChatGPT
Aber gut zu sehen, dass man bei AI noch ganz viel Potential hat, dass es auch grundlegend besser wird.
https://github.com/thunlp/H-Neurons
https://arxiv.org/html/2512.01797v1
Nur das könnte das wert sein - die Ergebnisse sind halt schon super gut, dass man das damit in Zukunft in den Griff bekommen kann - evtl was für 6.0 ChatGPT
Aber gut zu sehen, dass man bei AI noch ganz viel Potential hat, dass es auch grundlegend besser wird.
- Registriert
- Juni 2007
- Beiträge
- 7.361
Ich bin dann mal gespannt, wann 5.3 bei ChatGPT Enterprise bei uns in der Firma einzug erhält.