# Anthropic accuse 3 concurrents chinois d’avoir pillé Claude

**Date:** 22 mars 2026
**Source:** [PIX GEEKS](https://pix-geeks.com)
**Catégories:** [High-Tech](https://pix-geeks.com/tech/) > [Intelligence Artificielle](https://pix-geeks.com/tech/intelligence-artificielle/)
**Étiquettes:** [Claude](https://pix-geeks.com/dossier/claude/), [Elon Musk](https://pix-geeks.com/dossier/elon-musk/)
**Marques:** [Anthropic](https://pix-geeks.com/marque/anthropic/), [DeepSeek](https://pix-geeks.com/marque/deepseek/), [MinMax](https://pix-geeks.com/marque/minmax/), [Moonshot AI](https://pix-geeks.com/marque/moonshot-ai/)
**Anthropic affirme avoir identifié des campagnes de distillation à échelle industrielle visant son modèle Claude. Dans un billet publié le 23 février 2026, l’entreprise explique que trois acteurs, DeepSeek, Moonshot AI et MiniMax, auraient orchestré une extraction massive de capacités via des comptes frauduleux. Les chiffres avancés sont vertigineux : plus de 24 000 comptes créés artificiellement et plus de 16 millions d’échanges avec Claude. L’objectif présumé ne serait pas l’usage client classique, mais la collecte méthodique de données destinées à entraîner ou améliorer leurs propres modèles.**
Anthropic ne conteste pas le principe de la distillation. La technique est courante dans l’industrie : un modèle puissant sert de professeur à une version plus petite et moins coûteuse. Ce qui pose problème ici, selon l’entreprise américaine, c’est [l’ampleur, la coordination et le contournement délibéré des restrictions contractuelles et géographiques](https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks)\.La distillation devient alors, dans ce récit, une **forme d’aspiration industrielle de savoir-faire algorithmique**.
## Comment fonctionne une attaque de distillation à grande échelle ?
La distillation, dans sa version légitime, consiste à entraîner un modèle « élève » à partir des réponses d’un modèle « enseignant ». Mais lorsque des dizaines de milliers de requêtes ciblent systématiquement les mêmes capacités, le schéma change.
Anthropic explique avoir détecté des motifs répétitifs :
- demandes de raisonnement détaillé
- sollicitations de chaînes de pensée explicites
- extraction de comportements agentiques
- et scénarios d’utilisation d’outils
Un exemple cité illustre le procédé : demander à Claude de **reconstituer pas à pas le raisonnement interne** derrière une réponse déjà formulée. Pris isolément, ce type de prompt paraît banal. **Répété des dizaines de milliers de fois**, il devient une fabrique de données d’entraînement structurées. Selon l’entreprise, ce sont précisément ces volumes concentrés sur des capacités différenciantes, raisonnement complexe, orchestration d’outils, coding agentique, qui ont déclenché les alertes internes.
Pour contourner les restrictions d’accès, les laboratoires incriminés auraient utilisé des services proxy commerciaux et des architectures distribuées surnommées « **hydra clusters**« . Le principe est simple : multiplier les points d’entrée, répartir le trafic, remplacer instantanément les comptes bannis. Une infrastructure pensée pour éviter tout point de défaillance unique.
## Trois laboratoires, trois stratégies
Anthropic détaille les campagnes avec un niveau d’attribution présenté comme élevé, basé sur corrélations d’adresses IP, métadonnées et indicateurs d’infrastructure.
[DeepSeek](https://www.deepseek.com/) aurait généré **plus de 150 000 échanges identifiés comme suspects**, avec des schémas synchronisés entre comptes et des méthodes de paiement partagées. L’un des volets les plus sensibles concerne la génération d’alternatives « **censorship-safe** » sur des sujets politiquement délicats, suggérant un travail de redirection conversationnelle.
[Moonshot AI](https://www.moonshot.ai/), connu pour ses modèles Kimi, serait associé à plus de **3,4 millions d’échanges**\.Les requêtes ciblaient particulièrement le **raisonnement agentique**, l’analyse de données et la vision par ordinateur.
[MiniMax](https://www.minimax.io/), de son côté, concentrerait l’essentiel du volume avec plus de **13 millions d’échanges**, focalisés sur le coding avancé et l’orchestration d’outils. Anthropic affirme même avoir observé une adaptation rapide : lors de la sortie d’un nouveau modèle Claude, une partie significative du trafic se serait redirigée en moins de 24 heures vers cette version.
### Une affaire qui dépasse la concurrence commerciale
Le discours d’Anthropic ne se limite pas à la propriété intellectuelle. L’entreprise évoque explicitement des enjeux de **sécurité nationale**\.Selon elle, des modèles distillés illicitement pourraient perdre les garde-fous intégrés contre des usages sensibles, qu’il s’agisse de biologie, de cybersécurité offensive ou de désinformation. Le risque, toujours selon ce point de vue, serait une intégration de ces capacités dans des systèmes militaires, de renseignement ou de surveillance.
L’argument s’inscrit dans le contexte plus large des **contrôles américains à l’exportation de puces avancées**\.Si des laboratoires étrangers peuvent rattraper leur retard en extrayant les capacités de modèles américains, l’efficacité de ces contrôles serait affaiblie. Autrement dit, la bataille ne se joue pas uniquement sur les GPU, mais aussi sur les API.
## L’ironie soulevée par Elon Musk
La polémique a pris une tournure plus philosophique lorsqu’Elon Musk a réagi publiquement, soulignant l’ironie de voir une entreprise d’IA dénoncer le « vol » de ses capacités alors que les modèles sont eux-mêmes entraînés sur des données produites par des humains.
Derrière la formule sarcastique se cache une question centrale : **où commence et où s’arrête la légitimité dans un écosystème où tout le monde apprend de tout le monde ?**
Cette critique fait écho à un autre dossier sensible impliquant Anthropic. En 2025, l’entreprise a annoncé un règlement de **1,5 milliard de dollars** dans le cadre de l’affaire **Bartz v. Anthropic**, liée à l’utilisation de livres téléchargés depuis des bases comme LibGen. Un juge fédéral a distingué l’entraînement sur œuvres légalement acquises, considéré comme relevant du fair use pour les plaignants nommés, du téléchargement pirate, jugé non couvert par cette exception. Le débat juridique reste donc ouvert sur la frontière entre apprentissage statistique et appropriation.
## Une industrie qui se regarde dans le miroir
Au-delà des accusations, cette affaire révèle une tension structurelle. L’IA moderne repose sur la **circulation massive d’informations**, qu’il s’agisse de textes humains ou de sorties générées par d’autres modèles. La distillation est devenue un outil standard d’optimisation. La question n’est plus de savoir si elle existe, mais **à quelles conditions elle est acceptable**.
Anthropic annonce renforcer ses systèmes de détection, partager des indicateurs techniques avec d’autres acteurs et développer des contre-mesures au niveau produit. Mais l’entreprise reconnaît aussi qu’aucun acteur ne peut gérer seul ce type de phénomène. À mesure que les modèles gagnent en valeur stratégique, leurs sorties deviennent elles-mêmes des ressources convoitées.
Ce qui se joue ici dépasse trois laboratoires et une entreprise américaine. C’est une nouvelle étape dans la course mondiale à l’intelligence artificielle, où la frontière entre collaboration, inspiration et extraction forcée devient de plus en plus floue.
[Post X](https://x.com/elonmusk/status/2026052687423562228)
---
**Article précédent:** [IA vs Hollywood : Disney, Paramount et Netflix s'attaquent à Seedance 2.0 de ByteDance](https://pix-geeks.com/netflix-vs-bytedance/) | **Article suivant:** [Le fondateur de Twitter vire 40% des salariés pour les remplacer par l'IA et Wall Street applaudit](https://pix-geeks.com/block-licenciement-4000-postes/)