Guitarluke schrieb:
Viel wichtiger fände ich, wenn sich das Blöde Ding endlich mal merken würde, dass ich nur Antworten möchte wenn das System sich auch sicher ist und lieber zugeben soll, wenn es was nicht weiß anstatt dann irgendeinen verrückten Käse zu erfinden und den ohne Hinweis darauf als wahre Antwort auszugeben.
Kann ich gut nachvollziehen. ChatGPT redet dem Nutzer gern nach dem Mund. Nicht nur neigt es sehr stark dazu, dem Confirmation-Bias des Anwenders zuzuspielen, wenn dieser nicht sehr stark gegensteuert, es suggeriert ihm auch gerne Fähigkeiten, die es gar nicht hat, sofern danach gefragt wird. Und halluzinierte Informationen kriegt man auch verdammt schnell zurzeit, das ist definitiv wahr. Klar, bei Nachfragen korrigiert es sich dann auch schnell, aber es dürfte ruhig auch von vorneherein etwas genauer sein. Mit einem Dutzend Prompts nachjustieren zu müssen, bis es mal halbwegs passt, ist schon ziemlich nervig. Das kann Gemini derzeit ehrlich gesagt besser - wenigstens mein subjektiver Eindruck.
Kuristina schrieb:
Du sprichst dem Ganzen ein Bewusstsein zu, was es nicht haben kann.
Dir ist sicher klar, dass er das nicht wörtlich meint. Es ist schon richtig, dass ChatGPT aktuell gerne vorgibt, etwas für dich tun zu können, selbst wenn es das nicht kann.
Bitte es einfach mal darum, ein spezifisches Dokument im PDF-Format für dich zu generieren. Nachdem alle Abfragen durch sind, in deren Verlauf es dir fortlaufend suggerieren wird, dass es das könne, wird es dir sagen, dass es dazu doch nicht in der Lage ist. Transparenz von Anfang an wäre da schon ganz nett, vor allem wenn sich der Nutzer über den Funktionsumfang des Programms nicht vollends im Klaren ist.
tidus1979 schrieb:
Neben Halluzinationen nervt mich am meisten das nach dem Mund reden. Die KI versucht gefühlt immer, mich zu bestätigen und das ist nervig.
Hundertprozentig wahr. Hilft Leuten, die mit dem Kram aktuell aufwachsen und solchen, die sich in Schwurbler-Kreisen bewegen, natürlich besonders. "Die KI hat mir das aber so gesagt, öööööh". ChatGPT ist in dieser Hinsicht momentan schlimmer als jeder Social-Media-Filter. Man muss da als Nutzer echt hochreflektiert und mit der Bereitschaft zu laufenden Korrekturen herangehen, sonst kann man eine produktive Nutzung gleich vergessen. Und mal ehrlich, wie groß ist der Prozentsatz der Nutzerschaft wohl, auf die das Attribut "hochreflektiert" zutrifft?
Für mich klingt "freundlicher" in diesem Zusammenhang daher auch erstmal nach einer Verstärkung dieser Tendenz. Kann man nur hoffen, dass es nicht so ist
