
Anthropic a assoupli ses principales politiques de sécurité, invoquant la nécessité de rester compétitive, tandis que le Pentagone fait pression sur l'entreprise pour qu'elle autorise l'utilisation de l'IA afin d'espionner les citoyens américains et de créer des armes autonomes.
L'entreprise s'était auparavant positionnée comme l'un des laboratoires d'IA les plus axés sur la sécurité du marché, mais la direction a désormais renoncé à un engagement clé dans ce domaine.
En 2023, l'entreprise a introduit la Responsible Scaling Policy (RSP), un ensemble de règles volontaires visant à réduire les risques catastrophiques liés à l'utilisation des réseaux neuronaux. Initialement, le document stipulait qu'un développeur devait suspendre le développement de l'intelligence artificielle s'il la jugeait potentiellement dangereuse.
« Nous avons décidé que nous ne rendrions service à personne si nous cessions simplement d'entraîner les modèles d'IA. Compte tenu des progrès rapides du secteur, il nous a semblé imprudent de prendre des engagements unilatéraux alors que nos concurrents avançaient », a déclaré Jared Kaplan, directeur scientifique d'Anthropic.
La troisième version du RSP stipule qu'Anthropic continuera d'améliorer son IA si elle estime ne pas disposer d'un avantage significatif sur ses concurrents.
« Le contexte politique a évolué vers une priorité donnée à la compétitivité et à la croissance économique, et les discussions sur la sécurité de l'IA n'ont pas reçu de soutien significatif au niveau fédéral », indique le blog de la start-up.
La nouvelle politique prévoit une plus grande transparence, notamment la publication détaillée des résultats des essais sur maquette. L'entreprise s'engage à rester compétitive face à ses concurrents en matière de contrôle des systèmes. Anthropic ne ralentira son développement que si elle devient leader incontesté et qu'elle perçoit simultanément un risque important de catastrophe.
Lorsqu'Anthropic a lancé RSP en 2023, l'entreprise espérait que ses concurrents emboîteraient le pas. Mais personne n'a pris l'engagement aussi catégorique de stopper le développement de l'IA.
Anthropique sous pression du Pentagone
Anthropic et le département américain de la Défense sont en désaccord sur les projets de l'armée d'utiliser l'IA pour surveiller les citoyens et développer des armes autonomes. La start-up s'oppose à cette approche, mais des responsables du Pentagone ont déclaré vouloir utiliser LLM « dans tous les scénarios légitimes » sans restriction et ont évoqué la possibilité de résilier le contrat.
Le PDG de la start-up, Dario Amodei, a rencontré le secrétaire à la Défense, Pete Hegseth, pour discuter de la situation. Le ministère a lancé un ultimatum : la start-up doit accepter les conditions du gouvernement avant le 27 février.
En cas de refus, le gouvernement pourrait déclarer l'entreprise comme une menace pour les chaînes d'approvisionnement, ce qui mettrait en péril les relations commerciales d'Anthropic avec d'autres fournisseurs du gouvernement américain. Il pourrait également invoquer la loi sur la production de défense, ce qui autoriserait le Pentagone à utiliser de force la technologie de la start-up.
« Ce scénario est sans précédent et entraînera presque certainement une vague de litiges si l'administration prend des mesures défavorables à l'encontre d'Anthropic », a déclaré Franklin Turner, avocat spécialisé dans les contrats gouvernementaux chez McCarter & English.
Dans un communiqué correspondant, les représentants de la société d'IA ont souligné que les parties « continuent de mener un dialogue de bonne foi ».
Anthropique inébranlable
Reuters a appris qu'Anthropic n'a aucune intention d'assouplir ses restrictions concernant l'utilisation de cette technologie à des fins militaires.
La position de la start-up a été soutenue par Vitalik Buterin, cofondateur d'Ethereum.
Mon opinion sur @Anthropic s'en trouvera grandement améliorée s'ils ne reculent pas et assument honorablement les conséquences de leurs actes.
(Pour ceux qui ne le savent pas, jusqu'à présent, ils ont maintenu les deux lignes rouges suivantes : « pas d'armes entièrement autonomes » et « pas de surveillance de masse des Américains »…
— vitalik.eth (@VitalikButerin) 24 février 2026
« S’ils ne reculent pas et n’assument pas les conséquences avec honneur, mon opinion sur Anthropic s’en trouvera grandement améliorée », a-t-il déclaré.
En février, il a été révélé que le modèle d'intelligence artificielle Claude avait été utilisé lors d'une opération visant à capturer le président vénézuélien Nicolas Maduro. Selon l'agence, lors d'une réunion avec Hegseth, le PDG d'Anthropic n'a exprimé aucune inquiétude quant à l'utilisation des produits de l'entreprise dans cette initiative.
Une menace aussi sérieuse pour le Pentagone témoigne de la volonté de ne pas se séparer de Claude dans le secteur de la défense, écrit The Economist. Les journalistes soulignent que les technologies de cette start-up pourraient s'avérer indispensables aux missions militaires.
Rappelons que SpaceX et sa filiale d'intelligence artificielle xAI participent à un appel d'offres secret du Pentagone pour développer des essaims de drones autonomes à commande vocale.
