ChatGPT kennt das heutige Datum nicht und rät?

Ich weiß, der Zug ist abgefahren, aber man sollte halt mal von diesem "Buzz-Word" KI weg...

Chatgpt ist "nur" ein LLM, sprich es antwortet auf Fragen mit "wahrscheinlichen" Wörtern bzw. die in seinem Modell am häufigsten ausgewählt wurden für diese "Aneinanderreihung von Wörtern" (-> die Frage).

Was das Modell nicht "weiß" bzw. aus Trainingsdaten hat, kann es auch nicht richtig beantworten...

Womit wir gleich zum nächsten Punkt springen könnten: Wer entscheidet über die Trainingsdaten bzw. das jeweilige Modell antwortet eben nur anhand dessen, mit dem es zuvor gefüttert wurde.

Sagen die Trainingsdaten z.B. Person A ist der "beste,tollste,wirtschaftllich erfolgreichste etc." Präsident auf der Welt, dann wird das auch so entsprechend ausgegeben....Ergo, halten wir uns ans Phrasenschwein: Vertrauen ist gut, (Eigen-)Kontrolle ist besser
 
  • Gefällt mir
Reaktionen: Azghul0815
kachiri schrieb:
KI kann nicht wissen, ob etwas fehlt und entsprechend auch nicht aktiv nachfragen. Das ist auch nicht die Aufgabe von KI. Du musst als Nutzer schon wissen, was du möchtest und dies auch der KI vermitteln...
Dann ist das keine Intelligenz.
Im Ernst, eine Intelligenz kann sehr wohl feststellen ob ihr für eine fundierte Aussage/beurteilung informationen fehlen oder nicht. Ich kann das, Menschen in meinem Bekanntenkreis können das auch. ("Keine Ahnung", "damit kenne ich mich nicht aus"...)

Da ich davon ausgehe das eine KI kein Ego besitzt sollte es einer KI auch nicht schwer fallen daraufhinzuweisen das ihre Aussage aufgrund mangelnder Informationen vermutlich falsch ist anstatt zu halluzinieren.
 
Tulol schrieb:
anstatt zu halluzinieren.
Wie kommst du auf halluzinieren. Das ist der WISSENSstand der KI bzw. wie schon mehrfach erwähnt in diesem Kontext des LLM.
Das Beispiel mit dem Papst oder dem Bundeskanzler ist wunderbar: Nach Wissen von ChatGPT ist Olaf Scholz Bundeskanzler, weil das nun einmal der Wissensstand ist. Eine aktuellere Information würde ChatGPT sich quasi nur durch das durchforsten des Internets holen. Und zwar, wenn man sie darauf hinweist, dass ihr Wissen veraltet ist.
Jemand, der sich nicht großartig mit Politik beschäftigt, würde auf diese Frage womöglich auch nicht Friedrich Merz antworten, sondern Olaf Scholz oder gar noch Angela Merkel. Soll Menschen geben, bei denen geht Politik, wie auch immer, komplett vorbei. Oder sie kommen nicht aus Deutschland. Sie geben das wieder, was sie glauben zu wissen und nicht was sie nicht wissen. Weil sie im Zweifel gar nicht wissen, dass sie es nicht wissen.

Das hat auch nichts mit Ego zutun.

madmax2010 schrieb:
Du kannst damit in bereichen in denen du selbst Wissen hast und das geschriebene verifizieren kannst hervorragend deine Arbeit erleichtern.
Das ist halt im Grunde die Kernaussage. LLMs mit ChatGPT unterstützen. Sie sind nicht der allwissende allmächtiger Mensch. Auch immer ein Grund, warum ich schmunzeln muss, wenn die Leute wegen ChatGPT und Co. plötzlich Angst bekommen, dass bald die künstliche Intelligenz die Weltherrschaft übernimmt.
 
  • Gefällt mir
Reaktionen: TomH22
Tulol schrieb:
Dann ist das keine Intelligenz.
Ist ja auch künstliche Intelligenz...
Man merkt einfach, wie schlecht die Leute heutzutage bei dem Thema informiert sind...

Versucht doch mal die ganzen KIs als das zu sehen, was sie sind...Werkzeuge um einen das Leben zu erleichtern.
Nur muss man diese Werkzeuge eben auch bedienen können und das bedienen lernen.

Richtig zu Promoten ist eben doch nicht so leicht, wie man denkt.
Ich hab gestern den ganzen Tag samit verbracht für einen Bekannten ein Lied via AI zu machen.
chatgpt für den Text und stellt euch vor...ich musste einzelne Textzeilen selbstständig anpassen und neu Reimen.
Das geht für mich trotzdem noch 10x schneller, als ein eigenes Gedicht zu schreiben.
Das ganze geht dann eben wieder in eine neue KI, die macht dann Musik draus...Wieder etwas, was ich gar nicht könnte, vor allem nicht in der kurzen Zeit...

Ist es überlebenswichtig? Nein, aber es schafft Möglichkeiten.. Nämlich das ich aus spass uns Freude für mich und Freunde personalisierte Musik und Bilder machen kann.
 
kachiri schrieb:
Wie kommst du auf halluzinieren. Das ist der WISSENSstand der KI bzw. wie schon mehrfach erwähnt in diesem Kontext des LLM.
Ne ist er eben nicht.
Nenn es fantasieren oder halluzinieren, mir egal.
KIs neigen noch immer dazu oft Dinge zu "erfinden" oder blödsinn zusammen zu reimen wenn ihnen Daten/Informationen fehlen anstatt einfach zu sagen "das weiß ich nicht".

So auch mit dem Datum, wenn die KI keine möglichkeit hat die eigenen Informationen zu verifizieren dann soll die KI das auch genau so sagen und nicht irgendeinen Blödsinn behaupten(!), wie hier im konkreten Bsp. mit dem Datum. Das sind schlicht falsche Informationen. Die KI gibt im konkreten Fall ja nicht mal einen Hinweis darauf dass ihre Aussage ggf. falsch ist weil sie keinen zugriff zum Internet hat oder so. Nein sie behauptet felsenfest das es so ist.
 
Tulol schrieb:
Die KI gibt im konkreten Fall ja nicht mal einen Hinweis darauf dass ihre Aussage ggf. falsch ist weil sie keinen zugriff zum Internet hat oder so.
Weil sie das nicht kann! Was ist daran so schwer. Dafür ist "diese" KI, ein LLM, gar nicht gedacht. Noch einmal. INTERAKTION. Diese Modelle setzen darauf, dass der Mensch weiß was er tut und entsprechend im Bedarfsfall auch korrigierend eingreift...
Es ist kein "Ich werfe etwas rein und was rauskommt ist auch richtig"-Werkzeug.

Klassischer Error 40 - oder anders ausgedrückt: Layer-8-Problem
 
  • Gefällt mir
Reaktionen: Azghul0815
kachiri schrieb:
Weil sie das nicht kann! Was ist daran so schwer. Dafür ist "diese" KI, ein LLM, gar nicht gedacht. Noch einmal. INTERAKTION. Diese Modelle setzen darauf, dass der Mensch weiß was er tut und entsprechend im Bedarfsfall auch korrigierend eingreift...
Dann ist es aber nutzlos, bestenfalls eine Spielerei.
 
Für dich, für viele andere Menschen nicht. Es hilft beim formulieren, organisieren, strukturieren, zusammenfassen. Wenn ich die Dinger nur danach fragen möchte, wann Spiel X erschienen ist und vor wie viel Tagen das jetzt war, dann ist das in der Tat Spielerei ;)
 
  • Gefällt mir
Reaktionen: JumpingCat und Azghul0815
drago1401 schrieb:
Skynet wird kommen. xD
Es weiß nur noch nicht wann :lol:
Ergänzung ()

kachiri schrieb:
Wie kommst du auf halluzinieren. Das ist der WISSENSstand der KI bzw. wie schon mehrfach erwähnt in diesem Kontext des LLM.
Das Beispiel mit dem Papst oder dem Bundeskanzler ist wunderbar: Nach Wissen von ChatGPT ist Olaf Scholz Bundeskanzler, weil das nun einmal der Wissensstand ist.
Das haluzinieren beschreibt nicht die Aussagen basierend auf altem Wissen sondern Falschaussagen wider besserem Wissen!
Wenn chatGPT denkt zu wissen dass Olaf Scholz Bundeskanzler ist, dann wird es dir auf explizite Nachfrage, ob das so richtig ist, auch sagen dass das dem Wissenstand entspricht.
Es gibt aber Fälle, da Antwortet das LMM auf die Nachfrage, dass das falsch war und die Antwort eine andere sein müsste.

Ganz oft hatte* ich das bei Code, dem habe ich als Programmierer-Noob schon angesehen dass das nicht funktionieren kann. Konfrontiert damit antwortet chatGPT dann mit "Entschuldige bitte, das muss natürlich so und so sein (und schreibt dabei dann teilweise komplett neuen Code, statt den alten Code an einer Stelle zu fixen).

*"hatte" weil ich aufgrund der Qualität kein chatGPT mehr dafür verwende, obwohl ich Zugang zu einem Premium Account habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azghul0815, kachiri und drago1401
h00bi schrieb:
*"hatte" weil ich aufgrund der Qualität kein chatGPT mehr dafür verwende, obwohl
Ich kenne das vom Bewerbungen schreiben.
75% des Anschreibens passt ganz gut, 15 % hängt extrem vom Prompt ab und 5 % ist teilweise Bullshit, trotzdem hilft mir ChatGPT durchaus und ich muss nur minimal anpassen.
Ähnlich ist das bestimmt bei Code oder Scripten. Je Komplexer die Zusammenhänge, desto mehr muss man drauf schauen.
 

Ähnliche Themen

M
Antworten
3
Aufrufe
5.049
McMoneysack91
M
Zurück
Oben