Anthropic prend le taureau par les cornes. Dans un billet de blog furibard, le créateur de Claude explique avoir identifié une « campagne à l’échelle industrielle » menée par trois labos chinois, DeepSeek, Moonshot et MiniMax. Leur tort : avoir extrait illégalement les capacités du modèle IA d’Anthropic pour améliorer leurs propres modèles à moindres frais.
Quand les distillateurs sont distillés
Le procédé, baptisé « distillation », n’est pas en soi un crime. C’est même une pratique courante qui consiste à entraîner un modèle plus petit ou moins performant à partir des réponses d’un modèle plus puissant. Les grandes entreprises IA l’utilisent pour produire des versions allégées, moins coûteuses, destinées à leurs clients. En soi, la méthode n’a donc rien d’illégal.
Ce qui pose problème ici, selon Anthropic, c’est l’usage clandestin : au lieu de distiller leurs propres modèles, ces labos auraient utilisé Claude comme « professeur » involontaire. Cela permettrait d’acquérir certaines capacités « en une fraction du

