WSJ : L’armée américaine a utilisé Claude d’Anthropic lors de l’opération de capture de Maduro

L'armée américaine a utilisé Claude, de la société Anthropic, lors de l'opération visant à capturer le président vénézuélien Nicolas Maduro, rapporte le WSJ, citant des sources.

La mission consistait à bombarder plusieurs cibles à Caracas. L'utilisation de ce modèle à de telles fins est contraire à la politique publique d'Anthropic. Le règlement de l'entreprise interdit explicitement le recours à l'IA à des fins de violence, de développement d'armes ou de surveillance.

« Nous ne pouvons pas nous prononcer sur l'utilisation éventuelle du modèle Claude ou de tout autre modèle dans une opération spécifique, secrète ou non. Toute utilisation de LLM , que ce soit dans le secteur privé ou public, doit respecter nos politiques encadrant le déploiement des réseaux neuronaux. Nous collaborons étroitement avec nos partenaires pour garantir cette conformité », a déclaré un porte-parole d'Anthropic.

L'intégration de Claude au sein du Département de la Défense a été rendue possible grâce au partenariat d'Anthropic avec Palantir Technologies, dont le logiciel est largement utilisé par l'armée et les agences fédérales chargées de l'application de la loi.

Après le raid, un employé d'Anthropic a demandé à un collègue de Palantir quel rôle le réseau neuronal avait joué dans l'opération de capture de Maduro, rapporte le WSJ. Un représentant de la start-up a déclaré que l'entreprise n'avait discuté de l'utilisation de ses modèles dans des missions spécifiques « avec aucun partenaire, y compris Palantir », se limitant aux aspects techniques.

« Anthropic s'engage à utiliser l'IA avancée pour soutenir la sécurité nationale américaine », a ajouté le porte-parole de l'entreprise.

Anthropique contre le Pentagone ?

Le porte-parole du Pentagone, Sean Parnell, a annoncé un examen des relations avec le laboratoire d'IA.

« Notre pays a besoin de partenaires prêts à aider les combattants à gagner n'importe quelle guerre », a-t-il déclaré.

En juillet 2025, le département américain de la Défense a attribué des contrats d'une valeur maximale de 200 millions de dollars à Anthropic, Google, OpenAI et xAI pour le développement de solutions d'IA dédiées à la sécurité. La Direction du numérique et de l'IA du département prévoyait d'utiliser leurs travaux pour créer des systèmes de sécurité basés sur des agents.

Cependant, en janvier 2026, le Wall Street Journal a rapporté que l'accord avec Anthropic risquait d'être rompu. Les désaccords portaient sur la politique éthique stricte de la start-up. Celle-ci interdit l'utilisation du modèle Claude pour la surveillance de masse et les opérations létales autonomes, ce qui limite son utilisation par les services de renseignement tels que l'ICE et le FBI .

Le mécontentement des responsables s'est accentué suite à l'intégration du chatbot Grok au réseau du Pentagone. Le secrétaire à la Défense, Pete Hegseth, commentant le partenariat avec xAI, a souligné que le département « n'utilisera pas de modèles qui ne permettent pas de mener une guerre ».

Pression sur les développeurs

Citant des sources, Axios a rapporté que le Pentagone fait pression sur quatre grandes entreprises spécialisées dans l'IA pour qu'elles autorisent l'armée américaine à utiliser cette technologie à « toutes fins légitimes », notamment le développement d'armements, le recueil de renseignements et les opérations de combat.

Anthropic refuse de lever les restrictions sur la surveillance des citoyens américains et la création d'armes entièrement autonomes. Les négociations sont dans l'impasse, mais il est difficile de remplacer rapidement Claude en raison de la supériorité technologique du modèle pour certaines missions gouvernementales.

Outre le chatbot Anthropic, le Pentagone utilise ChatGPT d'OpenAI, Gemini de Google et Grok de xAI pour les tâches non classifiées. Ces trois entités ont accepté d'assouplir les restrictions imposées aux utilisateurs non classifiés.

On discute actuellement de la possibilité de transférer les LLM vers un circuit secret et de les utiliser « à toutes fins légitimes ». L'une des trois entreprises a déjà donné son accord, les deux autres font preuve d'une plus grande flexibilité qu'Anthropic.

Militarisation de l'IA

Les États-Unis ne sont pas le seul pays à mettre en œuvre activement l'intelligence artificielle dans le secteur de la défense.

Chine

En juin 2024, la RPC a introduit un commandant IA pour les simulations militaires à grande échelle impliquant tous les types de troupes de l'APL . Ce stratège virtuel est doté de pouvoirs étendus, apprend rapidement et perfectionne ses tactiques lors des exercices numériques.

En novembre, des médias ont rapporté que des chercheurs chinois avaient adapté le modèle Llama 13B de Meta pour créer l'outil ChatBIT. Ce réseau neuronal a été optimisé pour la collecte et l'analyse de renseignements, ainsi que pour l'aide à la décision opérationnelle.

Inde

New Delhi mise également sur l'IA comme moteur de la sécurité nationale. Le gouvernement a élaboré des stratégies et des programmes à l'échelle nationale, créé des institutions et des organismes spécialisés pour la mise en œuvre de l'IA et lancé des projets visant à appliquer cette technologie dans divers secteurs.

Grande-Bretagne

Londres a fait de l'intelligence artificielle une priorité. Dans sa « Stratégie IA pour la défense » (2022), le ministère considère l'IA comme un élément clé des forces armées de demain. Dans sa « Revue stratégique de défense » (2025), cette technologie est qualifiée d'élément fondamental de la guerre moderne.

Si l'intelligence artificielle dans un contexte militaire était auparavant perçue comme un outil auxiliaire, les forces armées britanniques prévoient désormais une transformation en une « force technologiquement intégrée », où les systèmes d'IA devraient être utilisés à tous les niveaux, de l'analyse au quartier général jusqu'au champ de bataille.

Rappelons qu'en mars 2025, le Pentagone a annoncé l'utilisation d'agents d'IA pour simuler des affrontements avec des adversaires étrangers.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *