Hi,
Herrlich, wie bei Wikipedia entwickelt sich eine Argumentation, dass bei ChatGPT alles nur Quatsch und und falsch sei. Das war schon bei Wikipedia Unfug und ist es hier auch.
Ja, KI bzw LLMs machen Fehler, aber bitte alles in Relation sehen, denn Menschen machen auch mehr als genug Fehler. Auch in Fachbüchern standen auch schon oft mehr als genug Fehler, genauso in Zeitungen etc und auch Fachleute sind nicht davor gefeit. Weil es hier besonders auffällt ist: Wie viele Ärzte gibt es, die Fehldiagnosen stellen?
KI ist ein Tool, mit dem man umgehen können und die Stärken und Schwächen kennen muss. Kann man damit umgehen und versteht die Stärken und Schwächen, ist es sehr hilfreich und mächtig.
Wer aber nur 24/7 Fragen zum Tianamen-Massaker, Donald Trump und Elon Musk stellt und Ghibli-Bilder im Akkord generiert, hat eine eher oberflächliche Sichtweise auf KI.
Das Problem mit dem Halluzinieren bei chatGPT ist übrigens im Training begründet. Die KI ist angehalten "ein guter Assistent" zu sein, was wohl leider dazu führt, dass die KI versucht auf Teufel komm raus dem User eine Antwort zu geben auf seine Frage. Das war beim Modell 3.5 extrem nervig und ist jetzt um welten besser geworden.
/edit
Wer etwas recherchieren möchte, sollte im Prompt um Quellen Angaben bitten und Folgefragen stellen, so kann man das Halluzinierte, wenn vorhanden, relativ schnell rausbekommen.
Gruß
Alef