silentdragon95
Commander Pro
- Registriert
- Apr. 2012
- Beiträge
- 2.187
Ein schwieriges Thema, da er kaum "ich möchte einen Amoklauf planen" an den Chatbot geschrieben haben wird. Grundsätzlich lassen sich halt viele Dinge (egal ob Gegenstände, Wissen oder Software) sowohl für legale Dinge verwenden (Waffenbesitz z.B. ist in den USA ja größtenteils legal), als auch für Straftaten, und der einzige Unterschied ist der Kontext, den der Chatbot in der Regel nicht hat. Selbst wenn der Chatbot bei potenziell kritischen Fragen nach dem Kontext fragt, hält das den Nutzer natürlich nicht davon ab, zu lügen.
Natürlich kennen wir den genauen Inhalt der Chats nicht, aber ich halte es durchaus für wahrscheinlich, dass sich hier keine Schuld seitens OpenAI bzw. ChatGPT ergibt.
Natürlich kennen wir den genauen Inhalt der Chats nicht, aber ich halte es durchaus für wahrscheinlich, dass sich hier keine Schuld seitens OpenAI bzw. ChatGPT ergibt.