Das ist doch jetzt schon so bei Claude. Zumindest, wenn man gezielt nach Lösungswegen für sicherheitsrelevante Themen nachfragt, bekommt man keine Lösung dafür - wenn die KI den Kontext als sicherheitskritisch einstuft. Anders verhält sich da GPT von OpenAi.
News Anthropic Model Welfare: Claude kann nun schädliche Unterhaltungen beenden
- Ersteller mischaef
- Erstellt am
- Zur News: Anthropic Model Welfare: Claude kann nun schädliche Unterhaltungen beenden