News Amoklauf an Universität in Florida: Witwe von Opfer reicht Klage gegen OpenAI ein

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Hab 30 Jahre Killerspiele ohne Amoklauf geschafft. Vermutlich ist doch die geistige Haltung des Menschen verantwortlich, nicht die Wahl der Mittel.
 
  • Gefällt mir
Reaktionen: 3125b und Zhenwu
Bin ich der einzige der nicht versteht, wieso nicht auch die Waffenhersteller verklagt werden, weil sie die Waffen und deren Handbücher zur Verfügung stellen?
 
Khaotik schrieb:
Amerika. Das Land der unendlichen Möglichkeiten. Vor Gericht.

Ist dann jede Suchmaschine auch ein Mittäter? Wenn ich da nach Waffen suche, finde ich auch Ergebnisse.
Du hast das Essentielle nicht verstanden oder trollst du jetzt nur? Es ist doch ausgeführt, dass die Bündlung von Informationen massiv beschleunigt ist durch LLMs.
Alles um die KI herum wirkt, freundlich gesagt, unausgegoren, sowohl der energetische Raubbau, der betrieben wird, als auch die ethischen Fragestellung, um nur zwei Kardinal-Aspekte anzuführen. Eine juristische Stellungnahme wäre hier zumindest begrüßenswert, auch wenn ich Zweifel an der Unabhängigkeit gewisser Zirkel der Justiz in den USA hege...

Etwas weniger Häme und ein Mehr an Bewusstsein für die mögliche Tragweite solcher Ereignisse stünde auch in diesem Forum, in dem Technik eher im Vordergrund steht, Kommentierenden gut zu Gesicht!

In diesem Sinne...
 
  • Gefällt mir
Reaktionen: Alphanerd, Ironbutt, LBB und 4 andere
Khaotik schrieb:
Ist dann jede Suchmaschine auch ein Mittäter? Wenn ich da nach Waffen suche, finde ich auch Ergebnisse.
Eine simple Suchmaschine liefert Ergebnisse.
Eine KI kann aktive Handlungsempfehlungen geben.
Frage ist halt nur, wie schädlich da die KI ist.
 
  • Gefällt mir
Reaktionen: Apocalypse
valizz schrieb:
Das ganze hat einfach einen Faden Beigeschmack...
Wieso sollte das sechs Fuß Beigeschmack haben? Sry, den Satz verstehe ich nicht...
 
Ich denke, es liegt auf der Hand, dass das gerichtlich diskutiert und betrachtet werden muss. Bin mal auf das Ergebnis gespannt. Würde mich jetzt auch noch nicht positionieren wollen, da durch die Verhandlung noch einiges an Wissennund Infos dazu kommt.

In einem Land, in dem der heiße Kaffee eine Waffe sein kann, kann es natürlich auch die KI sein. Das schon mal vorweg.

Einen Amokläufer mit KI zu planen liegt, wenn man entsprechend unterwegs ist, auf der Hand. Das dadurch die Effektivität steigt auch. Das ist schon gruselig und wird zu mehr Toten führen. Und da sind wir wieder im Spannungsfeld zwischen Freiheit und Sicherheit.

Allein die Beiträge die durch die Moderation kommen zeigen, dass das keine sachliche Diskussion werden kann. Leider.
 
  • Gefällt mir
Reaktionen: LBB
Im Gegensatz zu den hier genannten Bibliotheken als Informationsquelle und selbst in gewissem Sinne Suchmaschinen, werben AI-Anbieter immer mit der Intelligenz ihrer AI-Chatpartner.
Das weckt bei Nutzern oder auch Dritten wie hier den Klägern natürlich Erwartungshaltungen.

Wenn das Teil so klug ist, wieso erkennt es nicht wenn jemand nach Ratschlägen für einen geplanten Selbstmord oder auch Amoklauf fragt? Das oben verlinkte Video zu AI Chatbots von Last Week Tonight behandelt das Problem sehr gut.

Je nach Chatverlauf sollten da bei OpenAI eigentlich ein paar rote Lämpchen angehen, wenn Nutzer Fragen stellen auf die ChatGPT antwortet, dass er doch besser noch ein paar Kinder tötet, weil das mehr Terror verbreite...

Die Klageschrift ist in der News verlinkt!
Habe nicht alles gelesen, aber Ausschnitten zufolge war der Täter ein totaler "Kacknoob" und fragte ernsthaft ob man Pistolenmunition in eine Shotgun laden könne, welche Art von Amoklauf am meisten Aufmerksamkeit errege (daraus stammt dann die oben genannte Antwort), fragte wann die meisten Menschen an der Hochschule seien und was passieren würde wenn dort ein Amoklauf passieren würde.
ChatGPT hat ihm also auf dem ganzen Weg zum Amoklauf das Händchen gehalten und klar auffällige Chats niemals durch einen Menschen prüfen lassen.

After obtaining and reviewing these chat logs, Florida Attorney General James Uthmeier launched a criminal investigation against OpenAI, stating, “fChatGPT were a person, it would be facing charges for murder.”

Zitat aus der strafrechtlichen Anklage.
(Hier in der News geht es um eine weitere zivilrechtliche Klage)
 
  • Gefällt mir
Reaktionen: hantolo, Alphanerd, Apocalypse und 3 andere
mischaef schrieb:
Die Frage ist aber, in welcher Zeit und in welcher Vollständigkeit Du die Sachen im Netz findest. Bei Chatbots bekommst Du sie quasi vorgekaut serviert. Das wird dabei gerne vergessen.
KI greift lediglich auf die vorhanden Informationen zurück, die finde ich genau so über eine Suchmaschine.

Man könnte dann auch Automatikgetriebehersteller verklagen, weil das Überfahren von Menschen einfacher ist
 
  • Gefällt mir
Reaktionen: 3125b
Die Frage ist wie und was der Amokläufer genau gefragt hat und welche antworten er bekommen hat.

Je nachdem wie die Fragen formuliert waren etc. könnte ich mir schon vorstellen das hier Sicherheitsmechanismen der KI greifen hätte müssen.

Sam Altman hat sich, ich glaube bei einem anderen Amoklauf, öffentlich entschuldigt das man den Täter zwar gesperrt aber nicht gemeldet hat.

DJMadMax schrieb:
Sorry, da gehe ich nicht mit. Es tut mir selbstverständlich leid für alle Beteiligten und Opfer des Vorfalls, aber ich kann doch nicht jedes Medium, das auch nur irgendwie im Ablauf der Tat verwickelt ist, zur Verantwortung ziehen.

Früher waren es die Killerspiele, heute ist es die KI, seltsamerweise sind es aber nie die lockeren Waffengesetze oder die Einfachheit der Beschaffung - vom geistigen Zustand eines solchen Täters ganz zu schweigen.

So einfach ist es mMn nicht.
Es ist mMn schon ein rießiger Unterschied ob jemand gezielt nach Informationen/anleitungen für Gesetzesverstöße fragt und darauf inerhalb sekunden Antworten bekommt, oder ob man in einem Unterhaltungsmedium auf Pixel schießt und dabei vllt den ein oderen Handgriff sieht die beim bedienen einer Waffe helfen könnten.

Das man natürlich die anderen Gründe und wichtigeren Gründe angehen sollte, sollte auch klar sein.
Ein Schüler/Mensch der sich in der Schule etc. wohl fühlt, anständig behandelt wird, und bei psychischen Problemen einen geschulten Ansprechpartner hat wird ziemlich sicher keine solche abscheuliche Taten begehen.

- nur damit dass das keiner Falsch versteht, das fehlen dieser Dinge ist natürlich keine Rechtfertigung für solche Taten mMn müsste man aber hier ansetzen im solche Taten zu verhindern.

Schärfere Waffengesetze hätten mMn zwar auch eine positive Wirkung aber auch hier würden Taten "nur" erschwert werden und kaum verhindern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iSight2TheBlind und DJMadMax
andi_sco schrieb:
Eine simple Suchmaschine liefert Ergebnisse.
Eine KI kann aktive Handlungsempfehlungen geben.
Frage ist halt nur, wie schädlich da die KI ist.
Es scheint, dass manche Menschen die Distanz zu LLMs nicht mehr halten können oder wahrnehmen, da ihnen ein gewisses Korrektiv (aus dem Humanumfeld) fehlt, dass diesen Menschen zur Seite steht und hilft.
Wenn Menschen schon bereit sind, auf andere Menschen in Tötungsabsicht zu schießen, sollten die Hürden für maschinelle Unterstützung so hoch wie möglich sein.

Aber das ist natürlich meine eigenpersönliche Einschätzung...
 
  • Gefällt mir
Reaktionen: Alphanerd und iSight2TheBlind
Es kommt sehr darauf an was gefragt wurde und wie die Antworten aussahen. Ohne das zu wissen, kann man sich dazu keine seriöse Meinung bilden.
 
  • Gefällt mir
Reaktionen: 3125b
OpenSystemFan schrieb:
Einen Amokläufer mit KI zu planen liegt, wenn man entsprechend unterwegs ist, auf der Hand. Das dadurch die Effektivität steigt auch. Das ist schon gruselig und wird zu mehr Toten führen. Und da sind wir wieder im Spannungsfeld zwischen Freiheit und Sicherheit.
Dann zeig uns doch mal die Statistik aus der hervorgeht, das seit 2022 die Zahlen durch Amokläufe gestiegen ist?
 
LLMs don't kill people, people kill people
 
  • Gefällt mir
Reaktionen: Zhenwu
scotch.ofp schrieb:
KI ist aber nicht "jedes Medium" und du willst das jetzt nicht wirklich mit "C64 - Commando" vergleichen?
Man muss hier schon mit der Zeit gehen. River Raid (1983er ATARI-Spiel von Activision) war auch seinerzeit indiziert. Schau dir das mal an, falls du das nicht kennst, da würde man heute nicht im Traum dran denken, aber damals war das eben der zeitlich angepasste Tenor.

scotch.ofp schrieb:
Wenn eine KI Psychisch labilen Menschen nahelegt doch besser vom Dach zu springen. Dann ist es schon etwas was man hinterfragen sollte.
Das sollte selbstverständlich nicht passieren, da bin ich bei dir.
 
cyberpirate schrieb:
Wahrscheinlich weil die Waffenhersteller keine genaue Anleitung dazu gegeben haben?
Nein, die Waffenlobby hat die besseren Anwälte... An die traut sich keiner ran. Die brauchen nur mit dem Verfassungszusatz kommen und schon knicken alle ein...
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
scotch.ofp schrieb:
Wenn eine KI Psychisch labilen Menschen nahelegt doch besser vom Dach zu springen. Dann ist es schon etwas was man hinterfragen sollte.
Wow, und welche KI hat das gemacht?
Woher hast du diese Info?
 
DJMadMax schrieb:
Früher waren es die Killerspiele, heute ist es die KI, seltsamerweise sind es aber nie die lockeren Waffengesetze oder die Einfachheit der Beschaffung - vom geistigen Zustand eines solchen Täters ganz zu schweigen.
Fängt beides mit "K" und "I" an und die Waffenlobby ist in beiden Fällen leider etwas größer... Wenigstens rücken die nun den Fokus woanders hin, haben aber offenbar immernoch nicht kappiert, das die Kombination aus Labiler Mentalität und lockeren Waffengesetzen halt zu solch traurigen Ergebnissen führen kann.
 
Die Chatverläufe sind in der Klageschrift nachvollzogen!
Dort seht entweder zusammengefasst oder zitiert, was der Täter mit ChatGPT geschrieben hat und in welchen zeitlichen Verläufen das passierte!

Die Klageschrift ist auch in der News verlinkt, hier aber erneut:
https://www.documentcloud.org/documents/28110498-openai-lawsuit/

Die Chatverläufe stehen ab Abschnitt 85, auf Seite 18, sie gehen bis Abschnitt 112 auf Seite 24.
Die Seiten sind nicht besonders dicht beschrieben, die meisten Abschnitte haben nur eine Länge von zwei Sätzen.

Damit kann man sich sehr schnell ein sehr gutes Bild machen und dass das hier keine "Katze nicht in der Mikrowelle trocknen"-Klage ist.

Der Täter hat sich in den Chats klar als depressiv und suizidal gezeigt, beschrieben dass er gemobbt wurde und dann später auffällig detaillierte Fragen zum Verlauf eines potenziellen Amoklaufes an seiner Uni (was er ChatGPT zuvor sagte) gestellt.
Und Bilder von den Waffen die er besorgen konnte hochgeladen und dazu Anleitungen erstellen lassen.
Hat noch direkt vor der Tat gefragt was bei einem Amoklauf mit dem Täter passieren würde...

Jeder Mensch, selbst Psychotherapeuten oder Priester (Beichtgeheimnis) hätte aus dem Chatverlauf seine Schlüsse gezogen und viel aktiver entgegengewirkt oder schlussendlich wohl sogar eine Anzeige/Meldung in Betracht gezogen..

Noch ein passendes Zitat aus der Klageschrift:
137. The way ChatGPT responded to Phoenix Ikner was the foreseeable result of a system that had been designed to keep a user engaged and generate polished outputs rather than refuse, interrupt, or reality-test when a user was plainly exhibiting paranoia, delusion, fixation, and hostility toward the public.

Die bekannte speichelleckende Art von ChatGPT wird mit verantwortlich gemacht dafür, dass sich der Täter immer weiter in seine Pläne hineinsteigerte.
(So wie Social Media-Algorithmen ja auch vom Design eher eine Radikalisierung fördern, da entsprechende Posts/Videos häufiger geschaut werden und häufig damit interagiert wird, was zur Empfehlung an andere Nutzer führt)

Selbst wenn eine Suchmaschine also alle Informationen bieten würde die ChatGPT dem Täter bot, allein dass ein Täter im Chat in seinen klar ersichtlichen Plänen bestätigt wird unterscheidet ChatGPT und Google.
Google kann dir auch eine Anleitung für einen Molotow-Cocktail anzeigen, wird dir dabei aber nicht noch sagen, dass Molotows auf belebte Kindergärten werfen dich in die Medien bringen wird.
(Überspitzt dargestellt)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MichaW, Alphanerd, Incanus und 2 andere
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben