Datenleck durch falsche Informationen: AI-Agent verursacht bei Meta gravierenden Sicherheitsvorfall
Ein mit OpenClaw vergleichbarer AI-Agent führte bei Meta zu einem internen Datenleck. Der KI-Assistent selbst produzierte keinen fehlerhaften Code, gab einem Mitarbeiter aber falsche technische Angaben, berichtet The Verge.
Die Konsequenz des Vorfalls war, dass Meta-Mitarbeiter in der letzten Woche für fast zwei Stunden Zugang zu Unternehmens- und Kundendaten hatten, obwohl ihnen eigentlich die Berechtigung dafür fehlte. Meta-Sprecherin Tracy Clayton sagte gegenüber The Verge, keine Nutzerdaten seien in diesem Zeitraum „unsachgemäß behandelt“ worden. Zuerst hatte The Information den Sicherheitsvorfall beschrieben.
KI-Agent liefert autonom falsche Informationen
Ausgangspunkt für das Datenleck war ein interner KI-Agent, der laut der Beschreibung von Clayton ähnlich wie OpenClaw funktioniere, nur eben in einer sicheren Umgebung laufe. Ein Software-Entwickler nutzte den Agenten, um eine Frage zu analysieren, die ein anderer Mitarbeiter in einem internen Meta-Forum gestellt hatte. Der Agent postete allerdings autonom eine Antwort auf die Frage, berechtigt wurde er dazu nicht. Diese Antwort wurde nur dem Mitarbeiter angezeigt, der die Frage gestellt hatte. Öffentlich war der Beitrag nicht.
Der Mitarbeiter setzte dann um, was der KI-Agent empfohlen hatte – nur waren die Informationen fehlerhaft. Die Konsequenz war ein „SEV1“-Sicherheitsvorfall. Das ist die zweithöchste Stufe in Metas internen Bewertungssystem. Mitarbeiter hatten aber nur kurzzeitig einen nicht-autorisierten Zugang zu sensiblen Daten, das Problem wurde behoben.
Mitarbeiter wusste, dass er sich mit Agenten austauscht
Wie Meta-Sprecherin Clayton erklärt, hat der KI-Agent selbst keine technischen Maßnahmen umgesetzt. Dieser gab lediglich fehlerhafte Informationen, was im Kern etwas ist, das auch unter Menschen passieren kann. Menschen hätten aber womöglich den Hinweis gründlicher geprüft.
Der Mitarbeiter war sich laut Clayton aber bewusst, dass er mit einem Bot kommuniziert hat. Hinweise befanden sich sowohl in dem Beitrag des Agenten als auch in den Antworten des Mitarbeiters.
Fehler mit Agenten
Je mehr sich AI-Agenten verbreiten, desto häufiger werden Sicherheitsvorfälle bekannt. Eine der kuriosen Meldungen der letzten Wochen stammt sogar von Meta, berichtete 404Media. So war es die für Sicherheit zuständige Direktorin von Metas neuem Superintelligence Labs, die bei Experimenten mit dem Open-Source-Agenten OpenClaw Teile ihres Posteingangs löschte. Eigentlich sollte der KI-Assistent den Posteingang nur überprüfen, aufgrund der Menge an Mails kam es dann zur ungewollten Löschaktion.
Bei anderen Tech-Konzernen ist die Lage ähnlich. Bei Amazon haben Coding-Agenten im letzten Jahr zwei kleinere AWS-Ausfälle verursacht.