Massenüberwachung und autonome Waffen: Wie OpenAI den Pentagon-Vertrag von Anthropic übernimmt

Andreas Frischholz
0 Kommentare
Massenüberwachung und autonome Waffen: Wie OpenAI den Pentagon-Vertrag von Anthropic übernimmt
Bild: U.S. Pacific Fleet | CC BY 2.0

Die Trump-Administration eskaliert den Streit um KI-Massenüberwachung und autonome Waffen: Anthropic wird als Lieferketten-Risiko eingestuft und soll aus den Systemen des US-Kriegsministeriums verschwinden. Die offene Lücke besetzt jetzt OpenAI. Öffentlich wird nun diskutiert, welche Zugeständnisse dafür nötig waren.

Trump beendet Verhandlungen, Hegseth eskaliert den Konflikt

Dass sämtliche US-Bundesbehörden keine Anthropic-Modelle mehr verwenden soll, erklärte am späten Freitagnachmittag zunächst US-Präsident Donald Trump. Nun läuft eine sechsmonatige Übergangsfrist, in der etwa das Kriegsministerium Zeit hat, um die KI-Systeme zu ersetzen. Trump bezeichnete Anthropic als vermeintlich linke und woke Firma, von der sich das US-Militär nicht vorschreiben lasse, wie es Kriege zu führen habe.

Wie die Journalisten Kevin Roose und Casey Newton im Hard-Fork-Podcast berichten, erfolgte Trumps Posting zu einem Zeitpunkt, als Anthropic und das Kriegsministerium im Hintergrund noch verhandelten. Die Gespräche waren damit beendet. Für Anthropic-Mitarbeitende wirkte es zu diesem Zeitpunkt trotzdem wie eine letztlich zufriedenstellende Lösung, weil Trump weder die Einstufung als Lieferkettenrisiko noch den Defense Production Act erwähnte – das waren die massiven Drohungen in diesem Konflikt.

Kurz nach Trump legte aber US-Kriegsminister Peter Hegseth nach. Er verkündete, Anthropic als Lieferkettenrisiko für die Nationale Sicherheit einzustufen. „Mit sofortiger Wirkung dürfen keine Auftragnehmer, Lieferanten oder Partner, die mit dem US-Militär Geschäfte machen, kommerzielle Aktivitäten mit Anthropic durchführen“, so Hegseth.

Inwieweit sind Google und Amazon betroffen?

Damit erfolgte also die Eskalation. Hätte die US-Administration ausschließlich die Verträge beendet, wäre es ein finanzieller Schaden für Anthropic gewesen, der aber keine Auswirkungen auf das Alltagsgeschäft hat. Indem Anthropic nun als Lieferkettenrisiko klassifiziert ist, ändert sich das. Relevant ist das vor allem für Amazon und Google. Beide Big-Tech-Konzerne sind mit zweistelligen Milliarden-Beträgen in Anthropic investiert und stellen die Cloud-Computing-Kapazitäten für das KI-Unternehmen bereit. Gleichzeitig erfüllen diese aber auch Aufträge für das Pentagon.

Interessant ist, wie Anthropic die Auswirkungen der Lieferkettenrisiko-Einstufung einordnet. Für Privatnutzer soll diese keine Konsequenzen haben. Bei Unternehmen, die Verträge mit dem Pentagon haben, ist der Einsatz von Claude-Modellen nur unterbunden, wenn an Aufträgen für das Pentagon gearbeitet wird. Außerhalb der Pentagon-Abkommen können betroffene Unternehmen wie gehabt die Anthropic-Systeme verwenden.

Nach Lesart von Anthropic müssten die Cloud-Anbieter also lediglich sicherstellen, dass Claude-Modelle nicht die Pentagon-Aufträge involviert sind. Aufwändig, aber machbar. Folgt man hingegen der Lesart des Kriegsministeriums, müsste die Zusammenarbeit hingegen komplett beendet werden, wenn Amazon und Google weiterhin Dienste für das Pentagon anbieten wollen.

Anthropic will gegen die Lieferkettenrisiko-Einstufung klagen

In einer Stellungnahme bedauert Anthropic derweil, dass man sich nicht mit dem Kriegsministerium auf einen Vertrag einigen konnte. Die Ausnahmen für autonome Waffen und Massenüberwachung wären derzeit ohnehin nicht mit US-Recht vereinbar. Und vor allem für autonome Waffen würden die Modelle schlicht noch nicht zuverlässig genug arbeiten.

Gegen die Einstufung als Lieferkettenrisiko will man Klage einreichen. Dass ein US-Unternehmen so klassifiziert wäre, sei „rechtlich unlauter und ein gefährlicher Präzedenzfall für alle Unternehmen, die mit der US-Regierung verhandeln“. Bislang nutzten US-Administrationen dieses Mittel für chinesische Unternehmen wie Huawei oder russische Dienste wie Kaspersky Labs.

OpenAI nutzt Lücke und wird massiv kritisiert

Während Anthropic den Konflikt mit der Klage weiterführen will, hat OpenAI noch am Freitagabend bekanntgegeben, ein Abkommen mit dem US-Kriegsministerium abgeschlossen zu haben. Für das Pentagon will man eine angepasste Version der Modelle bereitstellen, die auch für den Umgang mit vertraulichen und klassifizierten Informationen freigegeben sind.

Sam Altman erklärte auf X, dass OpenAIs Vertrag auch die Ausnahmen für Massenüberwachung, das Steuern autonomer Waffen sowie automatisierte Entscheidungen mit weitreichenden Konsequenzen – also etwa Social-Credit-Systeme. Mit dem Kriegsministerium gebe es in diesen Bereichen auch keinen Dissens.

Die Kritik an diesem Abkommen ist dennoch enorm, in sozialen Medien trendete die Forderung, die ChatGPT-Abonnements zu kündigen. Seitdem sind OpenAI und Sam Altman vor allem um Schadensbegrenzung bemüht.

Kernkonflikt: Massenüberwachung und Steuerung autonomer Waffen technisch oder rechtlich ausschließen?

Der Kern des Konflikts ist die Frage, wie tief die Restriktionen in den KI-Systemen verankert sein müssen. Anthropic will Massenüberwachung im Inland sowie Steuerung autonomer Waffennutzung technisch ausschließen, während OpenAI zwar auch auf Sicherheitsrichtlinien hinweist, grundsätzliche aber den Vertrag als Instrument nutzt, um bestimmte Einsatzzwecke auszuschließen.

Anthropics Punkt ist aber, dass juristische Klauseln sich weiter auslegen oder schlicht missachten lassen. Verträge sind also keine Garantien. Die Auszüge aus dem Vertragstext, die OpenAI veröffentlicht hat, belegt diesen Vorwurf nun nach der Sichtweise von Kritikern.

Was laut dem Hard-Fork-Podcast aber wichtig bei der Bewertung der Verträge ist: Noch herrscht ein hohes Ausmaß an Unsicherheit über die Details. Vorsicht ist also angebracht. Es zeichnet sich aber ab, dass die Debatten in nächster Zeit vor allem um die Frage drehen, inwieweit rechtliche und vertragliche Vorgaben geeignet sind, um die Fähigkeiten von KI-Modellen einzuschränken. Was unter „lawful use“ – also rechtmäßiger Nutzung – zu verstehen ist, ist dabei einer der Knackpunkte.

xAI als weitere Alternative

Dass Anthropic als Lieferkettenrisiko eingestuft wird, bedauert Sam Altman. Während OpenAI also Anthropic tendenziell unterstützt, positioniert sich Elon Musk öffentlich voll auf Linie des Pentagon. Er und sein KI-Unternehmen xAI profitieren aber ebenfalls von dem Streit, künftig soll es auch eine angepasste Grok-Version für das Militär geben.

In mehreren US-Bundesbehörden bestehen aber enorme Zweifel, ob man Elon Musks KI-Dienste tatsächlich in klassifizierten Netzwerken nutzen will, berichtet das Wall Street Journal. Zu groß ist die Sorge vor Sicherheitsbedenken. Systemische Risiken würden etwa drohen, weil Grok übermäßig gefällig („sycophantic“) und zu anfällig für Manipulationen sei.

Als warnendes Beispiel nennen Vertreter der US-Regierung die rund um den Jahreswechsel veröffentlichte Bildfunktion in Grok, mit denen Nutzer massenhaft sexualisierter Bilder von Frauen und sogar Kindern erstellten. Dieser Vorfall zeige, wie Grok von feindlichen Akteuren ausgenutzt werden könnte.

US-Militär nutzt Claude-Modelle im Iran-Krieg

Im seit Samstag laufenden Iran-Krieg kommen Anthropics Claude-Modelle weiterhin zum Einsatz. Das gilt auch für das U.S. Central Command im Mittleren Osten, berichtet das Wall Street Journal unter Verweis auf Personen, die mit den Vorgängen vertraut sind.

Obwohl die Spannungen zwischen Kriegsministerium und Anthropic in den letzten Wochen bereits zunahmen, blieben die KI-Tools dem Bericht zufolge fest in die militärischen Abläufe integriert. Verwendet werden diese demnach für Lageanalysen, Zielidentifikationen und Simulationen von Gefechtsszenarien.