Massenüberwachung und autonome Waffen: OpenAIs Chefin der Robotik-Abteilung tritt zurück

Andreas Frischholz
35 Kommentare
Massenüberwachung und autonome Waffen: OpenAIs Chefin der Robotik-Abteilung tritt zurück
Bild: OpenAI

Das Beben rund um den Pentagon-Deal beschäftigen OpenAI nach wie vor. Caitlin Kalinowski, Chefin der Robotik- und Hardware-Abteilung, hat verkündet, das KI-Unternehmen zu verlassen. KI-Massenüberwachung und die autonome Steuerung von Waffensystemen bleiben die Kritikpunkte.

In einem Beitrag auf LinkedIn erklärt sie, KI habe eine wichtige Rolle im Bereich der nationalen Sicherheit. „Aber Überwachung von Amerikanern ohne gerichtliche Kontrolle und tödliche Autonomie ohne menschliche Autorisierung sind Themen, die mehr Überlegungen verdient hätten, als ihnen zuteil wurden“, so Kalinowski.

Sie betont, dass es ihr um Prinzipien und nicht um Personen gehe. So enthält die Stellungnahmen auch die üblichen Formulierungen: Die Entscheidung sei ihr nicht leichtgefallen. Zudem habe sie großen Respekt vor Sam Altman und dem Team und sei stolz auf das, was man gemeinsam erreicht habe. Die Leitungsfunktion der Robotik-Abteilung hatte sie seit November 2024 inne.

OpenAIs verhängnisvoller Pentagon-Deal

Was an der Aussage aber klar wird: innerhalb von OpenAI rumort es. Und den Aussagen von Kalinowski geht es nicht nur um die inhaltlichen Aspekte des Pentagon-Abkommen, sondern auch um das Zustandekommen.

Ursprünglich hatte das amerikanische Kriegsministerium (Department of War; DoW) mit Anthropic verhandelt. Weil Anthropic auf Sicherheitsrichtlinien bestand, die die Leistungsfähigkeit der Modelle bei der Massenüberwachung innerhalb der USA und der Steuerung autonomer Waffen einschränken, eskalierte der Streit.

Während Anthropic vom Pentagon als Lieferkettenrisiko eingestuft wurde (und deswegen klagt), hatte OpenAI kurz nach dem offiziellen Bruch einen eigenen Deal verkündet. Die Kritik war aber enorm. Der Vorwurf: Für einen kurzfristigen Vorteil gegenüber einem Konkurrenten stellt OpenAI ethische Bedenken hinten an, obwohl es sich bei der Massenüberwachung und den autonomen Waffen um essenzielle Themen handelt.

Der Kampf um Schadensbegrenzung

Sam Altman geht es seitdem um Schadensbegrenzung. Er will die Botschaft platzieren, dass OpenAI dieselben Sicherheitsrichtlinien wie Anthropic hat. Mittlerweile hat er sich mehrfach öffentlich geäußert und räumte auch ein schlechtes Timing bei der Bekanntgabe des Deals ein. OpenAI hat zudem Teile des Vertragstexts veröffentlicht und das Abkommen im Bereich Massenüberwachung nochmals präzisiert.

Öffentlich dringt man damit aber kaum durch. So verzeichnete ChatGPT zuletzt eine verdreifachte Deinstallationsrate, während Anthropics Claude-Assistent an der Spitze der Download-Charts steht. Und intern bleibt die Stimmung bei OpenAI offensichtlich auch angespannt. Wie Kalinowskis Rücktritt zeigt, scheinen die Konflikte aber noch nicht beigelegt zu sein.

Den Rücktritt bestätigte OpenAI. Gegenüber Fortune erklärte ein Sprecher des Unternehmens: „Wir glauben, dass unsere Vereinbarung mit dem Pentagon einen gangbaren Weg für den verantwortungsvollen Einsatz von KI im Bereich der nationalen Sicherheit schafft und gleichzeitig unsere roten Linien darstellt.“ So soll es „keine Überwachung im Inland“ und keine „autonomen Waffen“ geben. Den starken Meinungen bei den Themen sei man sich aber bewusst, daher wolle man weiterhin sowohl mit Mitarbeitern als auch der Öffentlichkeit einen Dialog führen.