News Einfluss von ChatGPT: Ermittlungen gegen OpenAI nach Amoklauf an Universität

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ein schwieriges Thema, da er kaum "ich möchte einen Amoklauf planen" an den Chatbot geschrieben haben wird. Grundsätzlich lassen sich halt viele Dinge (egal ob Gegenstände, Wissen oder Software) sowohl für legale Dinge verwenden (Waffenbesitz z.B. ist in den USA ja größtenteils legal), als auch für Straftaten, und der einzige Unterschied ist der Kontext, den der Chatbot in der Regel nicht hat. Selbst wenn der Chatbot bei potenziell kritischen Fragen nach dem Kontext fragt, hält das den Nutzer natürlich nicht davon ab, zu lügen.

Natürlich kennen wir den genauen Inhalt der Chats nicht, aber ich halte es durchaus für wahrscheinlich, dass sich hier keine Schuld seitens OpenAI bzw. ChatGPT ergibt.
 
Scirca schrieb:
Also ich weiß ja nicht, ich versteh ja wieso sie versuchen hier einem Ki Anbieter eine Teilschuld anzurechnen
Wie immer: Es geht ums Geld.
Von der Mutter, deren Dienstwaffe verwendet wurde, wird man keinen nennenswerten Schadensersatz einklagen können. OpenAI hingegen ist milliardenschwer. Sollte man da irgendeine Art Mitschuld nachweisen können, oder sollte OpenAI das Verfahren zu heiß werden und einen außergerichtlichen Vergleich anstreben, fließen hier direkt Millionen.
 
Dwork schrieb:
Die Straßenkarte mit der man die Route plant wär in dem Fall genauso schuldig. In jedem Fall handelt der Mensch.
Ja. Wobei man einschränken muss. Ein gewisser Prozentsatz ist nun einmal psychisch krank und die USA leben in einem Land ohne universelles Gesundheitssystem, dh, nicht jeder kann sich Hilfe leisten. Selbst bei uns muss man ja ewig auf Termine warten.

Wenn also zwei Sachen zusammen kommen, psychische Erkrankungen und den einfachen Zugriff auf Schusswaffen, führt das zwangsläufig immer zu Unglücken. Eigentlich kommt noch eine dritte Seite hinzu und das ist der ständige Druck eines Systems, was nur auf Leistung und Stärke ausgelegt ist und keinen Platz für Schwäche hat.

Hier ist nicht die KI verantwortlich, sondern die laxen Waffengesetze (in D sollte kein Kind an die Dienstwaffe und Munition der Eltern kommen)

"Nicht Waffen töten Menschen, Menschen töten Menschen" ist mmn hier nur eine halbe Wahrheit. Das würde gelten, wenn alle Menschen zu jeder Zeit geistig gesund sind, was leider nicht so ist. Und damit möchte ich nicht Menschen mit psychischen Problemen herab setzen, die können jeden von uns zu jeder Zeit treffen.
 
Zuletzt bearbeitet: (Typo über typo, Inhalt unverändert)
Ich finde das Thema schwierig.
Es handelt sich hierbei immer noch um eine Computer und der hat, aus meiner Sicht, nicht die Möglichkeit die Komplexität solcher Anfragen in Gänze zu verstehen. Auch die Tragweite kann so ein Gerät nicht vernünftig einschätzen.
Am Ende hat der Täter die Tat begangen.

Ich würde hier schon fast Aktionismus unterstellen, ganz dem Motto „schaut her, wir tun etwas“
Die Klage sehe ich auch nicht als vom Erfolg gekrönt.
 
Es kommt meiner Meinung nach drauf an, wie er denn die KI befragt hat. Wenn er so gefragt hat, dass ein normaler Mensch zumindest mal misstrauisch geworden wäre und vielleicht doch eher diese Infos nicht rausgegeben hätte, oder vielleicht auch vorsichtshalber die Polizei eingeschalten hätte, weil er eben sehr verdächtig ist, die KI aber einfach so ohne nachzufragen etc. die Infos auf einem Silbertablett präsentiert hat, dann trifft die mMn schon auch eine Mitschuld.

Wäre ja quasi wie wenn ich einen normalen Menschen frag wie ich am besten einen Amoklauf machen kann, welche Waffen, wann, wo etc. und dieser mit mir dann die Tat quasi plant, ist er ja auch mit Schuld.

Klar kann man das nicht verhindern und irgendwelche Sperren etc. können umgangen werden ala "ich will einen Krimi schreiben ...". Aber wenn es offensichtlich ist, dass dieser Mensch kriminelle Absichten hat, aber die KI im dann trotzdem hilft ist es halt kacke und sollte verhindert werden.

Der Vergleich mit dem Messerverkäufer passt daher eher nicht so. Passender wäre, wenn man den Verkäufer auch noch gefragt hätte, wie und wo man es machen soll usw.
 
Gigaherz schrieb:
Das wird wohl leider nicht der letzte Fall dieses Jahr bleiben. Ki tötet.
Klar wäre das auch ohne ChatGPT passiert, aber Beihilfe und Radikalisierung ist dem Chatbot nicht abzusprechen.
Menschen töten und nicht Waffen oder KI.
Bei deiner Argumentation kannst du auch direkt die Quellen verklagen aus denen ChatGPT seine informationen bezieht.
ChatGPT trägt hier keinerlei Schuld. Die Informationen hätte sich der Täter auch anderweitig beschaffen können, ohne dabei irgendwelche Gesetze zu verletzen.
Mitschuld trägt, wenn überhaupt, als einzige die Stiefmutter, da die Waffe oder Munition nicht ausreichend gesichert war.
 
sämtliche von ChatGPT in diesem Zusammenhang bereitgestellten Informationen seien auch aus öffentlich zugänglichen Quellen verfügbar gewesen
So sieht es eben aus. Bisschen googeln und dann hätte er seine Infos auch gehabt. Totaler Blödsinn OpenAI dafür verantwortlich zu machen. Hinzu kommt es ist Amerika - teilweise laufen Bürger einfach mit einem Sturmgewehr durch die Gegend, weil sie es dürfen!
Alphanerd schrieb:
Edit: ah, es war die Dienstwaffe der Mutter. Aber auch auf die hatte niemand außer der Mutter Zugriff haben dürfen. Waffe und Munition getrennt abschließen, etcpp.
Und das kommt noch hinzu! Eigentlich müsste die Mutter verklagt werden. Verrückt diese USA...
 
Solange die ki dich nicht zum Anschlag auffordert. Bücher mit speziellen Wissen sind ja auch erlaubt, teilweise selbst dann wenn der Autor zu einer Straftat aufruft.
 
Ghost_Rider_R schrieb:
Ist das nicht in etwa so, wie wenn man den Hersteller von einem Messern dafür verantwortlich macht, wenn damit eine Straftat begangen wurde?!
Allerdings ist eine Schusswaffe kein Messer. Um jemand aus 5-20m wegzuballern berausch es weniger Überwindung als einem ein Messer in den Bauch zu stecken.

Wenn man einen KI-Bot nach der Waffe und passenden Munition fragen muss... hmm....
Ist doch egal was für eine Schusswaffe. Man kann alles verwenden von .22 bis .50AE
Das die Munition passend zu Waffe sein muss stell ich mal als selbstverständlich voraus.

Die Amis haben die komischsten Waffengesetzte auf der der Welt je nach Staat von ganz extrem beschränkt bis zu Waffe kann auf Baby gekauft werden.
 
  • Gefällt mir
Reaktionen: Alphanerd
Alphanerd schrieb:
Ja. Wobei mir einschränken muss. Ein gewisser Prozentsatz ist nun einmal psychisch krank und die USA leben in einem ...
Der schwächste Mensch hat niemals das "Recht" andere mit in den Tod zu reißen. "Gesund" sozialisiert bringt man sich selbst um. Ich persönlich halte das auch für ne Art sozialen Flugzeugabsturz, kalt ist aber so. Das zynische wird nur wieder sein, dass man nach den "Gründen" am ehesten im Elternhaus und im direkten Umfeld fündig werden wird. Falls es eine Erklärung gibt.
 
Zuletzt bearbeitet:
Da ist aber keine Person dahinter, sondern ein Nachschlagewerk. Man geht ja auch nicht den Bibliothekar oder den Author festnehmen, weil sich eine Person mit Problemen die Informationen für seinen Plan aus solchen Werken holte, oder?

Hauptsache die Schuld bei irgendwem anders suchen als bei Eltern, Mitschülern und Lehrern, die das alle ja niemals haben kommen sehen können und sich dieser Person immer korrekt, gewissenhaft und reflektiert verhalten haben.

Edit: Halt. Schuld ist falsch formuliert. Die Schuld für die Tat hat immer der Täter. Eine solche Tat geschieht aber im Normalfall nicht ohne Motiv. Das Umfeld hat einen sehr grossen Einfluss auf die Denkweise eines Menschen. Die Kausalität ist eher da zu suchen, als bei der AI, aber das macht keine Schlagzeilen.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben