Calamyt1 schrieb:
Ich bin sprachlos. Man wusste also davon und hätte 8 Menschen das Leben retten können hat es aber nicht gemacht weil? .... weil weiß keiner.
Weil man die Daten lieber für seine Ki verwendet hat?
Warum steht der Altman nicht vor Gericht?
Wovon wusste man genau? Das eine Person ganz konkret vorhat 8 Menschen zu töten?
Erstens wissen wir nicht genau, was man an Stelle von OpenAi genau wusste. Dazu ist diese News viel zu dünn.
Zweitens, selbst wenn OpenAi etwas wusste, werden die genau so wenig verklagt wie man es mit einem Waffenproduzent tut, insofern die Täterin sich hier legitime aber im Sinne der GPT-Richtlinien grenzüberschreitende Informationen beschafft hat.
Du kannst auch vehement Infos aus GPT rausquetschen wollen die zum Zwecke einer Recherche erhoben werden aber dennoch permanent gegen die Richtlinien verstoßen. Wird man dann irgendwann gesperrt wenn man es „übertreibt“? Ich hab es nicht getestet und kann das nicht beurteilen.
Meine Gedankengänge dazu:
Ob ich es gut finden würde, wenn Mechanismen im Umgang mit einem LLM, zum Kontaktieren der Behörden führen könnten? Da tue ich mich ehrlich gesagt schwer mit.
Einerseits, wenn die Mechanismen absolut zielsicher sind. Was hieße das u.U.
Das ChatGPT womöglich zu einem Medium wird, welches potenzielle Straftäter identifiziert? Und was wenn es mal falsch liegt sich aber die Behörden blind darauf verlassen?
Im Anbetracht dessen würde ich es vermutlich eher gut heißen, wenn ChatGPT von sich aus vehementer versuchen könnte zu intervenieren.
Wobei ich dafür vermutlich von jedem Psychologen in Verbindung mit Tötungsdelikten gelyncht werde weil eine AI kein vollwertiger Psychologe sein sollte/sein kann?
Wie man es dreht und wendet. Der Umgang mit LLMs in diesem Zusammenhang ist alles andere als Trivial.