
Google est en pourparlers avec le département américain de la Défense concernant l'intégration de Gemini dans les systèmes du Pentagone pour toutes les catégories d'accès aux données, des données ouvertes aux données top-secret, rapporte The Information, citant des sources.
L'accord permettra au ministère de la Défense d'utiliser les développements de Google « à toutes fins légales ».
Au cours des négociations, la société a proposé d'ajouter des clauses qui rendraient impossible l'utilisation de Gemini pour la surveillance de masse des citoyens ou la création d'armes autonomes.
Un porte-parole du Pentagone a refusé de commenter directement le dialogue avec Google, mais a souligné que l'agence continuerait à mettre en œuvre des technologies d'IA avancées grâce à une étroite coopération avec le secteur privé à tous les niveaux de classification.
Le scandale anthropique
Le récent conflit entre le Pentagone et la start-up d'intelligence artificielle Anthropic a éclaté précisément sur ce fondement. Il a dégénéré en procès et en interdiction, par le président américain Donald Trump, de l'utilisation de la technologie de l'entreprise dans toutes les agences fédérales.
Les conditions préalables sont apparues en juillet 2025. À cette date, le département américain de la Défense a signé des contrats d'une valeur maximale de 200 millions de dollars avec Anthropic, Google, OpenAI et xAI pour développer des solutions d'IA dédiées à la sécurité. La Direction du numérique et de l'IA du département prévoyait d'utiliser ces développements pour créer des systèmes d'agents. Parmi tous les prestataires, seuls les outils d'Anthropic ont été intégrés à des environnements classifiés en raison de leur haute qualité.
Toutefois, en janvier 2026, le Wall Street Journal a fait état du risque d'annulation de l'accord. Les désaccords portaient sur la politique éthique stricte de la start-up : le règlement d'Anthropic interdit l'utilisation du modèle Claude pour la surveillance de masse et les opérations létales autonomes.
Le mécontentement des responsables s'est accentué suite à l'intégration du chatbot Grok au réseau du Pentagone. Le secrétaire à la Défense, Pete Hegseth, commentant le partenariat avec xAI, a souligné que le département « n'utilisera pas de modèles qui ne permettent pas de mener une guerre ».
La situation s'est envenimée en février 2026, lorsque l'armée américaine a impliqué Claude dans une opération visant à capturer le président vénézuélien Nicolas Maduro.
Le PDG de la start-up, Dario Amodei, a déclaré qu'Anthropic préférait ne pas collaborer avec le Pentagone plutôt que d'utiliser sa technologie d'une manière susceptible de « saper plutôt que de protéger les valeurs démocratiques ». Il a confirmé que le problème réside dans l'utilisation potentielle d'outils comme Claude à deux fins : « la surveillance de masse à l'intérieur d'un pays » et « les armes entièrement autonomes ».
La position de principe d'Anthropic a contribué à la popularité des produits de la start-up ; les utilisateurs appréciaient la volonté des développeurs de défendre leurs intérêts.
Dans le même temps, OpenAI a été critiquée pour son accord avec le département de la Défense, une décision que Sam Altman a par la suite qualifiée de précipitée.
Retour au début
Les négociations actuelles de Google avec le Pentagone rappellent les événements de 2018. À l'époque, la société s'était retirée du projet Maven, un programme utilisant l'intelligence artificielle pour analyser des vidéos de drones.
L'entreprise s'est retirée du projet face à la vive indignation de ses employés. Plus de 3 000 personnes ont signé une pétition ouverte demandant à la direction d'arrêter le développement d'une IA pour les drones de combat. Cet incident a suscité un large débat au sein du secteur technologique sur la légitimité de l'utilisation d'algorithmes à des fins militaires.
Depuis, Google s'emploie progressivement à rétablir ses relations avec le gouvernement. En 2022, l'entreprise a créé une unité spéciale chargée de collaborer avec le secteur public.
En 2024, la société a signé un accord avec le ministère de la Défense portant sur la coopération dans le domaine de l'IA. Cet accord se limitait à l'utilisation de la technologie dans le secteur non classifié.
Début 2025, Google a supprimé une clause de ses politiques internes en matière d'IA qui interdisait explicitement l'utilisation de cette technologie dans les « systèmes d'armes et de surveillance ».
La signature potentielle d'un contrat impliquant des opérations dans des environnements classifiés signifie aller au-delà de la simple « collaboration ». Une telle démarche témoigne d'une volonté d'intégrer pleinement les technologies de l'entreprise dans des opérations de défense essentielles.
Les employés contre
L'implication de Google dans les contrats de défense continue de susciter un mécontentement interne.
En 2018, l'entreprise avait promis de ne jamais travailler sur des technologies militaires. Cependant, en avril 2024, il a été révélé qu'elle fournissait des services de cloud computing et un accès à des services d'intelligence artificielle au ministère israélien de la Défense.
Dans ce contexte, environ 200 employés de DeepMind, la division intelligence artificielle de Google, ont déposé une protestation officielle. Ils demandent la rupture des accords conclus avec les agences de défense. Les instigateurs de cette initiative craignent que les développements de pointe du laboratoire ne soient transférés à des armées engagées dans des opérations militaires réelles.
« Toute implication dans la production militaire et d'armements nuit à notre position de leader en matière d'IA éthique et responsable, et contredit également notre mission et nos principes déclarés en matière d'intelligence artificielle », indique le document, signé par environ 5 % des employés.
Le Pentagone insiste
En février, les médias ont appris que le Pentagone demandait aux principales entreprises d'IA de rendre leurs outils disponibles dans des environnements classifiés sans les restrictions habituelles qui s'appliquent aux utilisateurs.
Ces réseaux sont utilisés pour un large éventail de tâches sensibles, allant de la planification des opérations au ciblage des armes. L'armée souhaite exploiter la capacité de l'IA à synthétiser l'information pour faciliter la prise de décision.
Cependant, les réseaux neuronaux peuvent commettre des erreurs et falsifier des faits. L'utilisation de tels outils en situation de combat comporte des risques de conséquences fatales.
Les entreprises spécialisées dans l'IA tentent de minimiser les aspects négatifs de leurs produits, mais le Pentagone est indigné par de telles restrictions.
Rappelons que le ministère de la Défense entend accélérer la prise de décision grâce à l'intelligence artificielle et en faire un élément central de sa stratégie de combinaison des capteurs et des systèmes de frappe lors des opérations de combat.
