Anthropic dit non à l’armée américaine. La start-up à l’origine de Claude a décidé d’interdire au Pentagone de se servir de son IA générative à des fins militaires. Le torchon s’est mis à brûler lorsque l’armée a utilisé une version militarisée de Claude, intégrée à un système de drone, lors du raid contre Nicolás Maduro au Venezuela. La société a protesté en rappelant qu’il s’agit d’une infraction à ses conditions d’utilisation, qui interdisent l’usage de Claude pour la violence, les armes ou la surveillance.
Dans un communiqué, Dario Amodei, le patron d’Anthropic, explique qu’en « toute conscience », il ne peut pas fournir « un produit qui met militaires et civils américains en danger ». Il estime que le fait d’utiliser l’IA « à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques ».
En amont de la décision d’Anthropic, le ministre de la Défense Pete Hegseth avait convoqué Dario Amodei pour

