Die KI-Rivalität zwischen den USA und China eskaliert: Anthropic wirft massive Modellkopier-Masche vor
Anthropic behauptet, Millionen von Claude-Interaktionen seien über gefälschte Konten abgegriffen worden, um konkurrierende chinesische Systeme zu trainieren

Amerikanische KI-Unternehmen verschärfen ihre Warnungen, dass Chinas KI-Industrie teure Forschung durch eine Technik namens „Destillation“ abgreift – und dass diese Praxis das Gleichgewicht im globalen Wettlauf um fortschrittliche Modelle verschieben könnte.
Die jüngsten Behauptungen stammen von Anthropic, das vorwirft, dass drei chinesische KI-Firmen – DeepSeek, Moonshot AI und MiniMax – heimlich mehr als 16 Millionen Gespräche mit ihrem Chatbot Claude generiert haben. Laut Anthropic wurde die Aktivität über mehr als 24.000 gefälschte Konten durchgeführt, was es den Unternehmen ermöglichte, große Mengen von Antworten zu sammeln und diese zum Training ihrer eigenen konkurrierenden Systeme zu verwenden.
Anthropics Anschuldigungen sind Teil einer breiteren Reihe von Beschwerden, die diesen Monat von anderen großen US-amerikanischen KI-Entwicklern geäußert wurden. Auch OpenAI und Google haben angegeben, ähnliche Muster versuchter Modell-Extraktion im Zusammenhang mit chinesischen Firmen beobachtet zu haben, was die Befürchtung aufkommen lässt, dass Konkurrenten jahrelange Forschungs- und Rechenkosten in einen viel kürzeren – und billigeren – Weg zu vergleichbarer Leistung komprimieren können.
Die fragliche Technik wird typischerweise als Modell-Extraktionsangriffe oder Destillation bezeichnet. Im Grunde genommen fragt eine Partei mit Zugang zu einem leistungsstarken „Frontier“-Modell dieses wiederholt mit großen Sätzen von Prompts ab, sammelt die Antworten und verwendet diese Ausgaben dann als Trainingsmaterial für ein kleineres Modell, das die Argumentation und den Stil des größeren Systems nachahmen soll. Innerhalb des eigenen Ökosystems eines Unternehmens ist die Destillation eine Standardmethode für Labore, um schnellere, billigere Versionen ihrer Flaggschiff-Modelle zu erstellen. Die Kontroverse beginnt, wenn derselbe Ansatz ohne Genehmigung auf das System eines Konkurrenten angewendet wird.
Google hat einen Grund beschrieben, warum Destillation attraktiv ist: Kleinere Modelle können schneller reagieren und benötigen weniger Rechenleistung und Energie als große Modelle. Anthropic argumentiert, dass die Kostenvorteile genau der Grund sind, warum die Technik für Unternehmen, die schnell aufholen wollen, so verlockend ist.
Anthropic betrachtet das Problem auch als Sicherheitsproblem, nicht nur als Streit um geistiges Eigentum. Es behauptet, dass Modelle, die durch unautorisierte Extraktion erstellt wurden, möglicherweise die Schutzmaßnahmen vermissen, die kommerzielle „Frontier“-Systeme zur Verhinderung von Missbrauch – einschließlich Unterstützung bei der Entwicklung biologischer Waffen oder der Ermöglichung von Cyberangriffen – enthalten. Google hingegen hat erklärt, dass Destillationsangriffe Endnutzer typischerweise nicht direkt gefährden, da sie die Vertraulichkeit oder Integrität des KI-Dienstes selbst nicht bedrohen.
In ihrer Darstellung, wie die mutmaßliche Extraktion funktionierte, gibt Anthropic an, dass der Datenverkehr über Proxy-Adressen geleitet und über ein „Hydra-Netzwerk“ koordiniert wurde – ein großes Netz gefälschter Konten, das darauf abzielt, Aktivitäten zu verteilen und die Erkennung zu vermeiden. Anthropic weist darauf hin, dass sein Dienst in China verboten ist, und behauptet, dass das Proxy-Setup dennoch für den Zugang genutzt wurde.
Einmal im System, generierten die Konten angeblich große Mengen von Prompts, die darauf abzielten, qualitativ hochwertige Ausgaben für das Training zu sammeln oder eine große Anzahl von Aufgaben für das Reinforcement Learning zu produzieren – den feedbackbasierten Prozess, der das Verhalten eines KI-Systems formt. Anthropic behauptet, dass einige Prompts Schritt-für-Schritt-Erklärungen dazu verlangten, wie Claude zu Antworten kam, was große Mengen an Trainingsmaterial im „Chain-of-Thought“-Stil hervorbrachte. Es wird auch behauptet, dass einige Anfragen politisch sensible Themen betrafen, mit Bitten um „zensursichere“ alternative Antworten.
OpenAI hat US-Gesetzgebern separat mitgeteilt, dass es Versuche von DeepSeek identifiziert habe, seine fortschrittlichsten Modelle zu kopieren, und warnte, dass das Unternehmen neue Techniken entwickle, um die Aktivität zu verschleiern. Google hat erklärt, dass sein Gemini-Chatbot häufig für Aufgaben wie Codierungs- und Skripting-Unterstützung sowie zum Sammeln von Informationen wie Kontodaten und E-Mail-Adressen missbraucht wird.
Anthropic gibt an, Systeme zur Erkennung verdächtiger Muster entwickelt zu haben, sobald diese auftreten, argumentiert jedoch, dass das Ausmaß des Problems größer ist, als ein einzelnes Unternehmen allein bewältigen kann – was verdeutlicht, wie sich die sich verschärfende technologische Rivalität zwischen den USA und China nun in der Architektur der künstlichen Intelligenz selbst abspielt.
Geschrieben von Thorben Thiede