News Einfluss von ChatGPT: Ermittlungen gegen OpenAI nach Amoklauf an Universität

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.415
  • Gefällt mir
Reaktionen: BrollyLSSJ und Hellyeah
Knapp ein Jahr nach dem schweren Attentat auf dem Gelände der Florida State University, bei dem zwei Menschen ums Leben kamen und sechs weitere verletzt wurden, prüfen Ermittlungsbehörden in Florida, in welchem Umfang ChatGPT den mutmaßlichen Täter bei der Planung seiner Tat unterstützt haben könnte

Wer meine Beiträge kennt weiß, dass ich bestimmt kein AI Fanboy bin.

Aber vlt könnte man ja mal ermitteln, ob es damit zusammenhängt, dass jeder noch so instabile Mensch Waffen im Supermarkt kaufen kann, solange er vorher nicht auffällig war?

An die paar Infos wäre er auch ohne LLM gekommen.....

Edit: ah, es war die Dienstwaffe der Mutter. Aber auch auf die hatte niemand außer der Mutter Zugriff haben dürfen. Waffe und Munition getrennt abschließen, etcpp.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Samuelz, Lan_Party94, 9t3ndo und 4 andere
oh man. Ausnutzung der AI für schädlige Zwecke. Vielleicht die Vorstufe zum Terminator oder was ähnlichem ?

(vielleicht werden sogar Banküberfälle über ChatGPT geplant, wer weiss ?)

Erinnert ein bisschen an die Ballerspiele, in irgendeinerweise.
 
KI vereinfacht den Zugang zu allseits bekanntem Wissen im Netz. Da fällt auch drunter welche Waffe sich für was eignet und Co. wenn man danach unverfänglich fragt. Wenn man nicht massiv zensieren will und das widerstrebt den Amis ja doch brutal wird man keine Schuld im Werkzeug finden können.
Meiner Erfahrung nach sind die sprachregeln schon brutal, sobald man irgendwas politisch inkorrektes kommt schieben die KIs riegel vor, ich kann mir beim besten Willen nicht vorstellen dass eine KI nicht auch stark darauf trainiert ist kriminelle absichten zu erkennen.
 
  • Gefällt mir
Reaktionen: Samuelz
Ist das nicht in etwa so, wie wenn man den Hersteller von einem Messern dafür verantwortlich macht, wenn damit eine Straftat begangen wurde?!
 
  • Gefällt mir
Reaktionen: 9t3ndo und Nerdpatrol
Schwieriges Thema.

Hätte die Tat auch ohne ChatGPT stattgefunden? Hätte es einen Unterschied gemacht wenn er selber bei Google/Bing/Yahoo gesucht hätte? Hat die KI von seinen Plänen “gewusst” und hätte evtl. Alarm geben können?
 
Er fragte den Chatbot nach einer passenden Waffe und Munition - hat aber dann das verwendet, was für ihn verfügbar war … die Dienstwaffe seiner Mutter. Wie ist er an die rangekommen? Egal… aber damit sind zumindest diese nachgefragten Informationen irrelevant.

Und zu welcher Zeit eine Einrichtung wie stark besucht ist, zeigt z.B. GoogleMaps an.
 
Tatsächlich auch ein schwieriges Thema und wird in Zukunft weiter an Bedeutung gewinnen. Klassisches Beispiel ist ja, hey chatgpt lass uns einen Roman schreiben...dann baust du so ein Szenario ein und lässt das die KI durchplanen.
Oder man macht Teilplanungen mit verschiedenen KIs oder gibt falsche Angaben, warum man bestimmte Informationen benötigt.

Komplett verhindern lässt sich KI-Missbrauch nicht. In dem Fall hätte die Dienstwaffe besser unter Verschluss sein müssen. Insgesamt tragisch.
 
Dann bald auch Ermittlungen gegen Krimi-Autoren und Filmregisseure, weil sie Tätern Ideen gaben? Und anschließend gegen Stahlindustrie, weil sie die Materialien aus der Erde gefördert haben, die zur Herstellung von Waffen benutzt werden? Und anschließend gegen Lebensmittelhersteller, die den Täter für seine Tat mit den notwendigen Kalorien versorgt haben. Welcher Jurist DA eine Kausalität herbeizaubern kann, da bin ich mal gespannt.
 
  • Gefällt mir
Reaktionen: 9t3ndo und Nerdpatrol
Das wird wohl leider nicht der letzte Fall dieses Jahr bleiben. Ki tötet.
Klar wäre das auch ohne ChatGPT passiert, aber Beihilfe und Radikalisierung ist dem Chatbot nicht abzusprechen.
 
Ganz ehrlich, wie will man sowas auch verhindern?
Alle Informationen kann man auch von einem LLM bekommen, wenn man die einzelnen Fragen einfach nur mit unterschiedlichem Kontext stellt.
Bei den Waffen hätte man z.B. sagen können man arbeite gerade daran einen Indie Shooter zu programmieren und möchte eine möglichst realistische Waffenauswahl für unterschiedliche Distanzen haben.

Reagieren kann man da nur, wenn dem LLM explizit erzählt wurde was man plant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd
Mal wieder ein durchschaubares Ablenkungsmanöver, um sich nicht mit dem Waffenrecht beschäftigen zu müssen.
 
  • Gefällt mir
Reaktionen: MickTheSick, Raykus, Alphanerd und 2 andere
Also anhand der Informationen im Artikel kann ich das keineswegs nachvollziehen und finde es schon fast idiotisch hier ChatGPT zu "beschuldigen".

Demnach soll ChatGPT unter anderem Hinweise zur Auswahl geeigneter Waffen und passender Munition gegeben haben sowie dazu, welche Waffen sich für bestimmte Distanzen am besten eignen.
Diese Information würde man auch in jedem Waffenladen, per Google recherche oder sonst wie bekommen.

Auch Informationen darüber, welche Bereiche des Campus zu welchen Zeiten besonders stark frequentiert seien, führte der Generalstaatsanwalt in einer Pressekonferenz weiter aus.
Das kann er einfach mit einem anderen Vorwand überall erfragen, zB dem Sekretariat.

Und wenn das die zwei Hauptargumente sind, verstehe ich die folgende Schlussfolgerung gar nicht. Total realitätsfremd:
Meine Staatsanwälte haben sich das angesehen und mir gesagt, wenn es eine Person am anderen Ende des Bildschirms gewesen wäre, würden wir sie wegen Mordes anklagen“, erklärte Uthmeier.
:freak::freak::freak::freak::freak:
 
Also ich weiß ja nicht, ich versteh ja wieso sie versuchen hier einem Ki Anbieter eine Teilschuld anzurechnen, aber vermutlich muss man das hier differenzierter betrachten.
Vermutlich wird einem eine Ki auf die Frage welche Waffe auf XYZ Distanz gut geeignet ist antworten, weil es perse eine normale Frage ist und eine Ki kein Motiv dahinter vermuten kann. Die Amis haben ja ihr Waffenrecht, sowie eine Frage wann an einer Uni viel los ist, auch keine Frage ist woran man direkt vermutet kann das der Fragensteller hier böses vor hat, er könnte ja auch Flyer verteilen wollen.

Schwierig bin gespannt was da am Ende für ein Urteil bei herauskommt. Ist halt die Grundsatzdiskussion ob ein Hersteller verantwortlich gemacht werden kann für die Dinge die mit seinen Werkzeugen gemacht wurden.
 
Nachdem OpenAI von dem Vorfall erfahren hatte, wurde ein mit dem Verdächtigen in Verbindung gebrachtes ChatGPT-Konto identifiziert und die entsprechenden Informationen proaktiv an die Strafverfolgungsbehörden weitergeleitet.
Moment mal! Die haben nicht den Durchsuchungsbefehl abgewartet, sondern einfach mal so gegen den Datenschutz verstoßen?

Insgesamt erinnert dieses Sache hier an die Diskussion um Killerspiele und diverse "motivierende" Musik. Bei letzterer erinnere ich mich dunkel, dass mal ein Amokläufer sich mit Musik von Rammstein direkt vor der Tat oder während dessen angeheizt hat.
 
  • Gefällt mir
Reaktionen: Alphanerd
Also ob eine beliebige Suchmaschine nicht auch alle relevanten Informationen finden würde.

KI ist lediglich ein Werkzeug, handel tut immer der Mensch.
 
Die Straßenkarte mit der man die Route plant wär in dem Fall genauso schuldig. In jedem Fall handelt der Mensch.
 
Naja man muss das differenziert betrachten - wenn jemand z.B. die KI fragt wo auf auf dem Campus zu welcher Zeit am meisten los ist dann muss das ja nicht zwingend bedeuten das jemand nen Amoklauf plant - kann ja auch ein Student sein der einfach nur wissen will wo man grad aufm Campus am besten neue Leute kennenlernen kann - von daher sehe ich da keine Schuld bei OpenAI.

Die Frage die mich hier eher beschäftigt ist wie kommt der Amokläufer an die Waffe seine Stiefmutter die ja als Deputy Sheriff arbeitet und deren Waffe immer vor Fremdzugriff gesichert sein sollte - hier ist wohl eher die Mitschuld zu suchen ...
 
  • Gefällt mir
Reaktionen: Scirca, Alphanerd und silentdragon95
Schon gesehen. Ich bin mal gespannt, was sich hieraus ergeben wird.
Werde diese Sache auf jeden Fall mal im Auge behalten.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben