BDR529 schrieb:
Wo habe ich das (sinngemäß) behauptet?
Du kennst also
Dein eigenes Posting nicht. Interessant.
BDR529 schrieb:
nicht "lügen", weil es hierfür ein Bewusstsein erfordert
Du hast immer noch nicht den Punkt verstanden. Es geht nicht ums Lügen a-k-a bewusste Falschaussagen.
Wie oft soll ich das jetzt noch erklären?
BDR529 schrieb:
Oder falsche Antworten müssten fest einprogrammiert sein
Es wird ohnehin nichts fest einprogrammiert im klassischen Sinne.
Jetzt mal eine sehr vereinfachte Erklärung, in der Hoffnung das Du es dann checkst.
LLMs basieren auf neuronalen Netzen und die werden mit Daten trainiert (was sehr aufwendig ist).
Man erhält hinterher quasi ein Netz mit Gewichtungen dran. Dieses trainierte Netz benutzt man dann. In dem man vorne rein seine Eingabe (also das was Du dem LLM quasi als Frage, Text, whatever) gibst. Das durchläuft dann das Netz unter Berücksichtigung der Gewichtung und hinten raus kommt quasi wieder Text (basierend auf Deiner Eingabe und den Gewichtungen).
Damit das gut funktioniert, brauchst Du aber eine gute Datenbasis. Und idealerweise brauchst Du auch viele Daten. Das Problem mit "viele Daten" hat man dadurch gelöst, in dem man die halt im großen Stil aus dem Internet abgeschöpft hat (und es bis heute tut). Also so was wie Wikipedia, Webseiten oder auch solche Foren hier wie dieses.
So ein LLM hat aber keine Vorstellung von Fakten oder Wahrheit. Es gibt nur das wieder, was sich in den Trainingsdaten befindet. Also nicht genau das im Sinne einer 1:1-Kopie, aber es wird halt in den Antworten verwurstet. LLMs sind eine Statistikmaschine deren Ausgaben auf Wahrscheinlichkeiten beruhen.
Das ist nicht notwendigerweise die Wahrheit. Das kann eben auch Blödsinn sein.
Nun hast Du aber das Problem, das im Internet sich zunehmend LLM-generierte Inhalte befinden. Da das Internet nach wie vor eine wichtige Quelle für das Training von LLMs ist, hast Du zunehmend das Problem, das eben auch der Blödsinn der von LLMs im Internet verbreitet wird in den Trainingsdaten vor kommt.
Ist jetzt alles sehr vereinfacht dargestellt, aber ich hoffe, Du hast es jetzt endlich verstanden.
BDR529 schrieb:
gesagt, das mir schon diverse Male aufgefallen ist, dass KI-Assistenten auf dieselbe Frage, manchmal auch unterschiedlich antworten
Ja.
BDR529 schrieb:
und damit widerlegt sein müsste, dass es sich bei den KI-Antworten um bewusste (falsche) Antworten
Wie gesagt: Das hier bewusst falsche Antworten gegeben werden, das war auch nie das Thema bzw. das habe ich schon
in meinem ersten Posting ausgeräumt.
Das ändert aber nichts am grundsätzlichen Problem, das bei LLM/KI falsche Antworten raus kommen (was Du ja selbst zugibst!!!!) die über Umwege wieder Teil der Trainingsdaten werden.
Wie oft willst Du denn jetzt noch das Lügen-Thema was schon 3 Mal abgehakt ist durchkauen?
BDR529 schrieb:
sondern sich vielmehr möglicherweise um Fehler oder Anomalien im Algorithmus handeln sollte.
Ja. Nenne es wie Du willst. Es ist aber dennoch ein Problem aus bereits genannten Gründen.
Also halten wir noch mal fest:
Salamimander sagte:
Schade, mit jeder Iteration wird der ganze LLM Kram schlechter, weil er von seinen eigenen Lügen lernt :|
Worauf
Du antwortetest mit:
Sorry, aber das ist kompletter Unsinn, den du da redest.
Und "kompletter Unsinn" impliziert, das die Aussage von Salamimander zu 100% falsch ist.
Und ja. Der Aspekt mit dem lügen (also bewusste Falschaussage) ist sicher so nicht richtig.
Aber die angesprochene Problematik das LLMs Falschaussagen produziert die über Umwege wieder ihren Weg in neue Modellgeneration findet, ist halt da und wird
auch weithin als Problem anerkannt.
Ergo das was Salamimander auch kein
kompletter Unsinn.