DeepSeek und Co.: Anthropic wirft chinesischen KI-Startups vor, Claude-Fähigkeiten zu stehlen

Andreas Frischholz
23 Kommentare
DeepSeek und Co.: Anthropic wirft chinesischen KI-Startups vor, Claude-Fähigkeiten zu stehlen
Bild: geralt | CC0 1.0

Anthropic wirft den chinesischen KI-Firmen DeepSeek, Moonshot und MiniMax vor, unrechtmäßig den Output von Claude zu nutzen, um Vorteile beim Training und Entwickeln eigener Modelle zu erhalten. Es handelt sich demnach um eine großangelegte Distillation-Kampagne mit industriellem Ausmaß.

Bei der Distillation-Technologie nutzen KI-Entwickler den Output eines leistungsfähigen Modells, um kleinere KI-Modelle zu trainieren. Laut Anthropic ist es ein weit verbreitetes und legitimes Verfahren, das auch die führenden KI-Firmen nutzen, um kleinere Ableger der Top-Modelle zu entwickeln.

Als nicht legitim bezeichnet es Anthropic aber, wenn konkurrierende KI-Firmen das Verfahren nutzen. Diese könnten damit leistungsfähige Modelle mit einem Bruchteil der Kosten entwickeln. Der Vorwurf richtet sich explizit gegen chinesische Firmen und die chinesische Regierung. Diese hätten das Ziel, mit diesen Verfahren die Lücke zu den US-Modellen zu schließen.

Wissen der Modelle erfassen

Anthropic versucht, Distillation-Angriffe zu unterbinden. Im Fall der chinesischen KI-Firmen registrierte man Vorgehensweisen, die einem ähnlichen Muster folgten. Diese nutzten gefälschte Konten und Proxy-Server, um den massenhaften Zugriff auf die Claude-Modelle zu verschleiern.

Zu den chinesischen Startups zählt DeepSeek. Das Unternehmen erlebte vor allem Anfang 2025 einen Hype, weil es Reasoning-Modelle auf Top-Niveau veröffentlicht hatte. Laut Anthropic hat man im Rahmen der Distillation-Analyse über 150.000 Interaktionen mit Claude erfasst, mit denen DeepSeek versucht hat, Trainingsdaten zu generieren.

Die Versuche der anderen Startups waren noch umfassender. Bei Moonshot AI verzeichnete man 3,4 Millionen Interaktionen, bei MiniMax sogar 13 Millionen Interaktionen mit Claude.

Zugeordnet wurden die einzelnen Distillation-Kampagnen einem Labor, indem man IP-Adressen korrelierte, Metadaten der Anfragen analysierte und weitere Infrastruktur-Indikatoren nutzte. Diese Untersuchungen kamen mit hoher Wahrscheinlichkeit zu dem Ergebnis, dass die genannten Labore hinter den Angriffen steckten. Abgesehen hatten diese es vor allem auf die agentischen Fähigkeiten wie das Reasoning, die autonome Tool-Nutzung sowie die Coding-Fähigkeiten.

Destillation-Angriffe als geopolitisches Risiko

OpenAI hatte DeepSeek und weiteren KI-Startups aus China schon im letzten Jahr vorgeworfen, Distillation zu nutzen, um die eigenen Modelle zu trainieren. Das Vorgehen bezeichnete man als Risiko im AI-Wettrennen und geopolitisches Risiko. Die Konsequenz war, dass OpenAI von der US-Regierung verschärfte Urheberrechts- und Handelsvorgaben einforderte.

An diesem Punkt setzt auch Anthropic an. „Ausländische Labore, die amerikanische Modelle analysieren, können die ungeschützten Fähigkeiten dann in Militär-, Geheimdienst- und Überwachungssysteme einspeisen – und so autoritären Regierungen ermöglichen, hochentwickelte KI-Systeme für Cyberoperationen, Desinformationskampagnen und Massenüberwachung einzusetzen“, heißt es in der Mitteilung.

Würden entsprechende Modelle als Open-Source-Variante veröffentlicht, würde sich das Risiko laut Anthropic sogar vervielfachen, weil weder Firma noch eine Regierung die Kontrolle über die Verbreitung hätten. Kurzum: Wie schon OpenAI beschreibt nun auch Anthropic die Destillation-Angriffe der chinesischen Startups als geopolitisches Risiko für die USA.