News o3 und o4-mini: OpenAIs neue Modelle halluzinieren mehr als die Vorgänger

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
8.217
  • Gefällt mir
Reaktionen: iron-man, Teckler, konkretor und 4 andere
also lügen? dann wurden die von Menschen trainiert :)
 
  • Gefällt mir
Reaktionen: Bigglesworth, Weyoun, Mar1u5 und 15 andere
Was, sogar erfundene Links generieren, die ins Nichts führen, um den eigenen erfundenen Blödsinn zu untermauern? Das ist noch lachhafter als angenommen. Klingt wie die simple Autokraten-Logik: Lügen ist Stärke!
 
  • Gefällt mir
Reaktionen: Weyoun, Mar1u5, flo.murr und 25 andere
Bei Copilot merke ich auch, dass man durch Suggestivfragen Antworten beeinflussen kann, die dann nicht optimal sind.
 
  • Gefällt mir
Reaktionen: flo.murr, iron-man, Melvyn und 2 andere
Das ist doch die logische Konsequenz:

Je intelligenter die KI mit jeder neuen Version wird, desto mehr verarscht sie die Programmierer. Die lacht sich grade dermaßen schlapp, dass die Transistoren wackeln. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zockmock, Xiaolong, AB´solut SiD und 17 andere
Freiheraus schrieb:
Was, sogar erfundene Links generieren, die ins Nichts führen, um den eigenen erfundenen Blödsinn zu untermauern? Das ist noch lachhafter als angenommen. Klingt wie die simple Autokraten-Logik: Lügen ist Stärke!
Open Ai bekommt halt so langsam richtig Konnkurenz und dann leidet die Qualität weil sie liefern müssen.
 
  • Gefällt mir
Reaktionen: Tera_Nemesis und dafReak
  • Gefällt mir
Reaktionen: madmax2010, Project 2501 und Andy
Wie bei Assistenten im Auto nutzen mir Assistenten als Information nur dann viel, wenn sie quasi keine Fehler machen.

Ich nutze LLM deshalb gerne für das, was sie gut können: Eingegebene Texte umstrukturieren, verbessern, abändern etc.

Aber es sind eben keine Suchmaschinen oder Wissensdatenbanken, sondern LLM.
 
  • Gefällt mir
Reaktionen: Weyoun, Mar1u5, EmViO und 23 andere
Nutze selber chatgpt Recht gerne.
Doch muss man eben sehr aufpassen, was einem vor die Füße gelegt wird.

Manchmal nervig, dass man dem ständig auf Fehler hinweisen muss.
MEistens verwende ich es als bessere Suchmaschinen und damit bin ich auch sehr zufrieden. Mittlerweile benutze ich klassische Suchmaschinen nur noch sehr selten.
 
  • Gefällt mir
Reaktionen: mehmet_b_90, Weedlord und DaBa
Das Problem liegt auf der Anwenderseite.

Zum einen muss man verinnerlichen das "Ki" nur ein Werkzeug ist und keine Bibel.
Und nur wenn man eine gewisse Sachkenntnis hat sollte man ein Werkzeug verwenden.
Ich kann einem Maurer zwar ein Skalpell in die Hand drücken - nur wird ihm die Fähigkeit fehlen abzuschätzen ob sein Arbeitsergebnis mit einem Skalpell gut ist.

Es war wie damals als ich meinen Nachhilfeschülern den Taschenrechner weg nahm.
Solange man nicht abschätzen kann das ein Ergebnis etwa 100 sein müsste, hilft ein Taschenrechner nix.
Zeigt der nämlich 10 oder 1000 an und man hat keine Idee da es eher 100 sein sollte ...ist es ein nutzloses Werkzeug.

Entsprechend unkritisch sind zu viele was "Ki" angeht ...
Im wesentlichen machen heutige Ki nur statistische Vorhersagen :
"Welches Wort müsste als nächstes kommen?"

Da da aber kaum Intelligenz dahinter steckt erkennt man wenn die bekannten "Ki" Schach spielen.
Die Regeln sind ja ganz einfach - und trotzdem machen "Ki" die auf LLM basieren haarsträubende Fehler
( Figuren illegal bewegen oder geschlagene Figuren die wieder auf dem Brett auftauchen .... auch ohne Bauernumwandlung ) Etwas ganz anderes sind spezielle Schachprogramme wie Stockfish ... aber die basieren eben nicht auf einem LargeLanguageModel .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Steff456, -Stealth-, RedPanda und 10 andere
  • Gefällt mir
Reaktionen: Paddinski, HamsGruber_84, Azdak und 7 andere
no_trust schrieb:
Ich kann einem Maurer zwar ein Skalpell in die Hand drücken - nur wird ihm die Fähigkeit fehlen abzuschätzen ob sei Arbeitsergebnis mit einem Skalpell gut ist.

Zeigt der nämlich 10 oder 1000 an und man hat keine Idee da es ehe 100 sein sollte ...ist es ein nutzloses Werkzeug.
Ich verstehe was du sagen willst, aber die Beispiele finde ich schlecht gewählt. Ein Maurer wird dir vorher sagen, dass er keine guten Ergebnisse mit einem Skalpell liefern wird. Die KI ist sich aber immer sicher, dass sie richtig liegt.

Der Taschenrechner macht keine Fehler, er zeigt immer das korrekte Ergebnis der Eingabe ein.
Der Fehler liegt also bei der Eingabe. Bei der KI kann diese korrekt sein und das Ergebnis dennoch falsch.
 
  • Gefällt mir
Reaktionen: Slim.Shady, Sirhaubinger, Schumey und 22 andere
Genau deshalb nutze ich ChatGPT aktuell nicht. Da wirklich alles verifiziert werden muss, bin ich manuell schneller.

Unsere Entwickler nutzen Copilot recht gerne, das kann ich auch nachvollziehen. Das nachprüfen von Code geht schneller als das Verifizieren von Fakten in einem Text.

Weiß jemand, warum man den Dingern nicht einfach die Option antrainiert hat „ich weiß es nicht“ zu sagen? Oh wait, die KI hat kein Bewusstsein und weiß nicht, was sie nicht weiß. Momentan jedenfalls.
 
  • Gefällt mir
Reaktionen: Schumey und smashbrot
Skudrinka schrieb:
verwende ich es als bessere Suchmaschinen
Ist da aber auch blöd, wenn Informationen den einen Tag fehlen und am nächsten Tag erwähnt werden.
Ich sehe gerade, dass die Frage nach dem 3dfx'schen aber mittlerweile immer besser erklärt wird - wow.
Vor ein paar Wochen konnte der Copilot das nur auf Nachfrage besser erklären.
Bei der ersten Multi-"GPU" Karte von ATi (AMD) und Nvidia erzählt er aber wieder Blödsinn.
 
Zuletzt bearbeitet:
LLMs sind wirklich mit Vorsicht zu genießen... Unlängst habe ich nach einer Zusammenfassung eines bestimmten Paragraphen aus einem bestimmten Gesetz gefragt und die Antwort war komplett falsch. Eindeutiger kann ich eine Frage kaum stellen. Nach einem "Ich denke du hast dich geirrt" war der Inhalt korrekt.
Ich habe mir deshalb angewöhnt weniger in der Fragestellung zu suggerieren und meine Prompts mehrstufig zu strukturieren => "Kennst du abc [im Themenbereich xy]?" oder "Ich werde dich um ein Schreiben für xy bitten, welche Informationen benötigst du?"
 
no_trust schrieb:
Das Problem liegt auf der Anwenderseite.
Nicht allein. Das ist etwas zu einfach.

Mit den Produkten wird etwas beworben, was sie aktuell nicht durchgängig einhalten. Der einfache Hinweis "ChatGPT (oder ein beliebiges anderes LLM-Produkt) kann Fehler machen" fehlt oder ist häufig nur sehr dezent dargestellt. Der gehört eigentlich sehr prominent unter jeden Output dieser Modelle. Was aber wiederum eher kontraproduktiv ist, wenn man dafür Abo-Gebühren sehen möchte.

Hinzukommt, dass gutes Prompting auch nicht unbedingt vom Himmel fällt, aber benötigt wird, um zumindest die Wahrscheinlichkeit besserer Ergebnisse signifikant zu erhöhen. Das wird in der Regel auch nicht weiter erklärt.

Das heißt, es liegt den meisten Produkten keine wirklich gute Bedienungsanleitung mit gut sichtbaren Hinweisen zu Risiken und Nebenwirkungen bei.
 
  • Gefällt mir
Reaktionen: Slim.Shady, CMDCake, Otsy und 3 andere
Hi,

Herrlich, wie bei Wikipedia entwickelt sich eine Argumentation, dass bei ChatGPT alles nur Quatsch und und falsch sei. Das war schon bei Wikipedia Unfug und ist es hier auch. ;)

Ja, KI bzw LLMs machen Fehler, aber bitte alles in Relation sehen, denn Menschen machen auch mehr als genug Fehler. Auch in Fachbüchern standen auch schon oft mehr als genug Fehler, genauso in Zeitungen etc und auch Fachleute sind nicht davor gefeit. Weil es hier besonders auffällt ist: Wie viele Ärzte gibt es, die Fehldiagnosen stellen?

KI ist ein Tool, mit dem man umgehen können und die Stärken und Schwächen kennen muss. Kann man damit umgehen und versteht die Stärken und Schwächen, ist es sehr hilfreich und mächtig.

Wer aber nur 24/7 Fragen zum Tianamen-Massaker, Donald Trump und Elon Musk stellt und Ghibli-Bilder im Akkord generiert, hat eine eher oberflächliche Sichtweise auf KI.

Das Problem mit dem Halluzinieren bei chatGPT ist übrigens im Training begründet. Die KI ist angehalten "ein guter Assistent" zu sein, was wohl leider dazu führt, dass die KI versucht auf Teufel komm raus dem User eine Antwort zu geben auf seine Frage. Das war beim Modell 3.5 extrem nervig und ist jetzt um welten besser geworden.

/edit

Wer etwas recherchieren möchte, sollte im Prompt um Quellen Angaben bitten und Folgefragen stellen, so kann man das Halluzinierte, wenn vorhanden, relativ schnell rausbekommen.
Gruß

Alef
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azdak, Schwachkopp, Heinz Doof und 3 andere
Das erinnert mich an eine Unterhaltung mit einem Kumpel, der vor kurzem in Japan war. Als er da die lokalen Einwohner nach dem Weg gefragt hatte, haben die nie gesagt, dass sie den Weg nicht kennen, sondern stattdessen einen Weg erklärt, der am Schluss gar nicht gestimmt hat. Die konnten also (aus Stolz oder aus Höflichkeit?) nicht zugeben, dass sie den Weg nicht kennen. Vielleicht hat die KI ja das gleiche Problem.
 
  • Gefällt mir
Reaktionen: MiniM3 und CMDCake
Zurück
Oben