@wern001 Finden ist das eine, aber warum denn die Arbeit machen, das halluziniert einfach das Fehlende dazu.
Ich hoffe, dass schlaue Köpfe in Zukunft bessere Modelle und Algorithmen erarbeiten, aber momentan wollen die LLMs doch quasi eine Belohnung und sie werden immer versucht sein, dir eine zufriedenzustellende Antwort zu geben.
Das LLM welches nach Verbrechern gefragt wird, würde sich in "Grund und Boden schämen", wenn es diese nicht liefern kann, also generiert es welche. Moral, richtig oder falsch kennt es ja nicht, nur die vermeintliche Belohnung.
Die Drohne, die autonom nach Terroristen suchen soll, wird diese auf den einen oder anderen Weg auch finden. 😞 Verrückte Welt.
Aber mal OT, ich denke das Experiment ist etwas zu simpel gestrickt, da es ja mal wieder so gebaut ist, dass es funktionieren muss. Spannender wäre es ja gewesen, einen Datensatz zu nehmen, in dem es die Verbindungen nicht gibt und ob das Modell, eben dennoch Ergebnisse geliefert hätte und da sind wir ja wieder bei den Profilen.
Das wir alle überwacht werden können und werden, ist ja mal klar. Der Zweck ist momentan noch meist überschaubar, wenn auch nervend, Aber ich habe die Befürchtung, dass immer mehr System "unreife" KI einsetzen werden und es zu einer gigantisch großen Zahl an "false positives" kommt und wen diese dann ohne weitere Prüfung, an die Exekutive gehen, dann ist das für niemanden schön.
Dann ist es auch egal wie groß dein digitaler Fußabdruck gewesen ist, denn es kann schlicht jeden treffen. Und weil ja Prüfungen zu teuer sind, einigt man sich dann auch gleich auf eine Beweislastumkehr. Und wer sich einen Anwalt nimmt, hat ja eh schon was zu verbergen, geschweige wer auf seine Rechte pocht.
Und an diesem Punkt, kann man schnell landen, einmal die passende Partei im Bundestag, einmal der richtige Anschlag/das richtige Ereignis um auch die Zweifler zu bekehren, einmal das richtige Feindbild aufblasen... die Reihenfolge spielt da weniger eine Rolle. 😞
Normalerweise bin ich gar nicht so negativ drauf. 😁