La rivalité américano-chinoise en matière d'IA s'intensifie alors qu'Anthropic dénonce un plan de copie massive de modèles

Anthropic affirme que des millions d'interactions avec Claude ont été recueillies via de faux comptes pour entraîner des systèmes chinois concurrents

Les entreprises américaines d'IA intensifient leurs avertissements selon lesquels l'industrie chinoise de l'IA siphonne des recherches coûteuses en utilisant une technique connue sous le nom de « distillation » – et que cette pratique pourrait faire pencher la balance dans la course mondiale aux modèles avancés.

Les dernières allégations proviennent d'Anthropic, qui affirme que trois entreprises chinoises d'IA – DeepSeek, Moonshot AI et MiniMax – ont généré secrètement plus de 16 millions de conversations avec son chatbot Claude. Selon Anthropic, cette activité a été menée en utilisant plus de 24 000 faux comptes, permettant aux entreprises de collecter de grands volumes de réponses et de les utiliser pour entraîner leurs propres systèmes concurrents.

Les allégations d'Anthropic font partie d'un ensemble plus large de plaintes soulevées ce mois-ci par d'autres grands développeurs d'IA américains. OpenAI et Google ont également déclaré avoir observé des schémas similaires de tentatives d'extraction de modèles liées à des entreprises chinoises, ce qui fait craindre que les rivaux puissent compresser des années de recherche et de dépenses informatiques en un chemin beaucoup plus court – et moins cher – vers des performances comparables.

La technique en question est généralement appelée attaques d'extraction de modèle, ou distillation. En termes simples, une partie ayant accès à un puissant modèle « frontalier » le sollicite de manière répétée avec de grands ensembles d'invites, collecte les réponses, puis utilise ces sorties comme matériel d'entraînement pour un modèle plus petit conçu pour imiter le raisonnement et le style du système plus grand. Lorsqu'elle est utilisée au sein de l'écosystème d'une entreprise, la distillation est un moyen standard pour les laboratoires de construire des versions plus rapides et moins chères de leurs modèles phares. La controverse commence lorsque la même approche est appliquée au système d'un concurrent sans autorisation.

Google a décrit une raison pour laquelle la distillation est attrayante : les modèles plus petits peuvent répondre plus rapidement et nécessitent moins de puissance de calcul et d'énergie que les grands modèles. Anthropic soutient que les avantages en termes de coûts sont précisément la raison pour laquelle cette technique est tentante pour les entreprises qui cherchent à rattraper leur retard rapidement.

Anthropic considère également la question comme un problème de sécurité, et pas seulement comme un litige en matière de propriété intellectuelle. L'entreprise affirme que les modèles construits par extraction non autorisée peuvent manquer des garanties que les systèmes commerciaux « frontaliers » incluent pour prévenir les abus – y compris l'aide au développement d'armes biologiques ou la facilitation de cyberattaques. Google, quant à lui, a déclaré que les attaques par distillation ne compromettent généralement pas directement les utilisateurs finaux, car elles ne menacent pas la confidentialité ou l'intégrité du service d'IA lui-même.

Dans son récit de la manière dont la prétendue extraction a fonctionné, Anthropic affirme que le trafic a été acheminé via des adresses proxy et coordonné via un « réseau hydre » — un vaste réseau de faux comptes destiné à distribuer l'activité et à éviter la détection. Anthropic note que son service est interdit en Chine, et allègue que la configuration proxy a été utilisée pour obtenir un accès malgré tout.

Une fois à l'intérieur, les comptes auraient généré de grands volumes d'invites visant à collecter des sorties de haute qualité pour l'entraînement ou à produire un grand nombre de tâches pour l'apprentissage par renforcement – le processus basé sur le feedback utilisé pour modeler le comportement d'un système d'IA. Anthropic affirme que certaines invites demandaient des explications étape par étape sur la façon dont Claude parvenait aux réponses, produisant de grands volumes de matériel d'entraînement de style « chaîne de pensée ». L'entreprise allègue également que certaines requêtes impliquaient des sujets politiquement sensibles, avec des demandes de réponses alternatives « à l'abri de la censure ».

OpenAI a informé séparément les législateurs américains qu'il avait identifié des tentatives de DeepSeek de copier ses modèles les plus avancés et a averti que l'entreprise développait de nouvelles techniques pour masquer l'activité. Google a déclaré que son chatbot Gemini est fréquemment détourné pour des tâches telles que le support de codage et de script, ainsi que pour la collecte d'informations comme les identifiants de compte et les adresses e-mail.

Anthropic affirme avoir mis en place des systèmes pour détecter les schémas suspects à mesure qu'ils se produisent, mais soutient que l'ampleur du problème est plus grande que ce qu'une seule entreprise peut gérer seule – soulignant comment la rivalité technologique américano-chinoise de plus en plus intense se déroule désormais au sein de l'architecture même de l'intelligence artificielle.

Écrit par Thorben Thiede

© The Alpine Weekly Newspaper Limited 2026