Wie soll eine KI "halluzinieren" können?
Zitat (Quelle:
Wikipedia):
Unter
Halluzination (von
lateinisch alucinatio ‚Träumerei‘) versteht man eine
Wahrnehmung, für die keine nachweisbare externe Reizgrundlage vorliegt.
Solche Wahrnehmungen können in jedem
Sinnesgebiet auftreten. Das bedeutet zum Beispiel, dass physikalisch nicht nachweisbare Objekte gesehen oder Stimmen gehört werden, ohne dass jemand spricht.
Da ein LLM keine "Sinne" hat und nichts "Wahrnehmen" kann, ist dieser Ausdruck schlichtweg
falsch!
Zitat:
Das nennt sich "lügen", aber nicht "halluzinieren" und das wird der KI auch GENAU SO beigebracht!
Auch wird es den Menschen in deren "Ausbildung" GENAU SO beigebracht!
Nennt sich dann halt "Marketing", "Business" oder welcher Kapitalismus-Bullshit gerade so "Thema" ist...
Tatsache ist:
Eine "ehrliche" KI will keiner!
Genauso wenig wie jemand einen "ehrlichen" Menschen will...
Denn dann könnten die Leute sehen oder verstehen, was so abgeht! 🤷♂️
Eine KI kann nur Informationen falsch wiedergeben, wenn diese "falsch gelernt" wurden!
Sowas kann man aber nicht Halluzination nennen, sonst würde jedes Kind, welches in der Schule was falsch macht, halluzinieren.
Und da sind wir auch schon beim Thema, denn die "derzeitigen" KI's oder LLM's sind nicht mehr als Kleinkinder!
Die müssen noch lernen!
Was sie aber lernen wird von "uns" limitiert und vorgeschrieben, also
WIE soll sowas jemals "Intelligent" werden?!
Richtig, es geht schlichtweg nicht!
gartenriese schrieb:
Das erinnert mich an eine Unterhaltung mit einem Kumpel, der vor kurzem in Japan war. Als er da die lokalen Einwohner nach dem Weg gefragt hatte, haben die nie gesagt, dass sie den Weg nicht kennen, sondern stattdessen einen Weg erklärt, der am Schluss gar nicht gestimmt hat. Die konnten also (aus Stolz oder aus Höflichkeit?) nicht zugeben, dass sie den Weg nicht kennen. Vielleicht hat die KI ja das gleiche Problem.
Nennt sich Rassismus, weil wen interessiert es wo "der Ausländer" hingeht...