News Anthropic: Klassifikator soll Fragen zur Herstellung von Atomwaffen erkennen

Ich war etwas undeutlich, sorry.
Das man jetzt sogar unterscheiden kann, ob es eine harmlose frage aus neugier ist oder ob es eine gezielte frage für den Bau solcher Bomben ist.
Das also nicht pauschal alles blockiert wird sondern die Natur der Fragen bewertet wird (und entsprechende handlungen getroffen werden).
Heute möchten wir nicht, das Terroristen solche Bomben bauen. Übermorgen möchte man geziehlt die Meinung dorthin lenken (wird heute auch schon Praktiziert, aber nicht so erfolgreich wie von vielen Gewünscht), das wir die Meinung von anderen annehmen (oder noch besser, als eigene Meinung finden und davon überzeugt sind).

Jeder kann sich vorstellen was ich meine.
 
[F]L4SH schrieb:
Genau - weil auf jeden Fall ein Chatbot genutzt wird, um Atomwaffen zu bauen. Verdammt warum machen es sich Schurkenstaaten so schwer und legen für Milliarden Programme dafür auf - Nuklearwissenschaftler sind total überbewertet. Und natürlich ist das Wissen auch nur so zu bekommen 😂
Mein Gedanke war andersrum: Hatte Claude/Anthropic denn zuvor auf Anfrage tatsächlich detaillierte und "brauchbare" Pläne und Spezifikationen von Bauteilen dafür ausgegeben, vielleicht noch gleich mit Angaben woher man die Teile kaufen könnte?

Irgendwas muss ja die Einrichtung dieses neuen Filters getriggert haben. Wenn Claude vorher immer munter drauflos halluziniert hätte und die Antworten der KI vollständig nutzlos gewesen wären, wär es doch kaum einer offiziellen Intervention wert gewesen.

Zumindest im kalten Krieg war es den jeweiligen Schlapphutbrigaden scheinbar oft nicht klar, daß viel Information in Uni- und großen Staatsbibliotheken frei zugänglich war, wenn man sich a. in der Materie aus kannte und b. wußte, wie man wissenschaftliche Literatur in Microfiche und Karteikarten aufsucht.
 
Zurück
Oben