Bloomberg : SpaceX et xAI vont s'affronter pour développer un logiciel destiné aux armes autonomes du Pentagone.

SpaceX et sa filiale d'IA récemment créée, xAI, participent à un concours secret du Pentagone visant à créer des essaims de drones autonomes contrôlés par la voix, rapporte Bloomberg, citant des sources.

L'entrée de l'entrepreneur dans le domaine du développement d'armes basées sur l'intelligence artificielle, à travers ses deux start-ups, constitue un tournant nouveau et potentiellement controversé pour le milliardaire, note l'agence.

SpaceX est depuis longtemps un sous-traitant de la défense, et Musk soutient activement le développement de l'IA, bien qu'il se soit opposé à la création de « nouveaux outils pour tuer des gens ».

En 2015, le milliardaire a signé une lettre ouverte mettant en garde contre les dangers des armes autonomes. L'entrepreneur a plaidé pour l'interdiction des armes capables de sélectionner leurs cibles de manière indépendante et de fonctionner sans contrôle humain significatif.

L'essence du projet

Un nombre limité d'entreprises ont été sélectionnées pour participer à cet appel d'offres de six mois, doté d'un budget de 100 millions de dollars, qui vise à créer une « technologie d'essaim avancée capable de traduire les commandes vocales en instructions numériques et de contrôler plusieurs drones ».

La capacité de coordonner simultanément les actions de plusieurs drones existe déjà. Cependant, la création d'un logiciel permettant de piloter simultanément plusieurs dizaines d'appareils demeure une tâche complexe.

Le projet se déroulera en cinq étapes, du développement logiciel aux essais en conditions réelles. Les drones seront utilisés à des fins offensives, rapporte Bloomberg.

La startup xAI a commencé à recruter activement des ingénieurs à Washington et sur la côte ouest des États-Unis, possédant des habilitations de sécurité valides, pour travailler avec des entreprises sous contrat avec le gouvernement fédéral.

En janvier, le robot informatique Grok a été intégré au réseau du Pentagone. Le secrétaire américain à la Défense, Pete Hegseth, a déclaré qu'il « fournirait toutes les données nécessaires » issues des systèmes informatiques militaires, y compris les informations provenant des services de renseignement.

Auparavant, le département américain de la Défense avait alloué 200 millions de dollars à Anthropic, Google, OpenAI et xAI pour développer des solutions d'IA dans le secteur de la sécurité.

La Direction principale des technologies numériques et d'IA du ministère a déclaré que ces fonds contribueront à accélérer l'intégration de capacités avancées de réseaux neuronaux dans les outils de sécurité nationale.

OpenAI aussi

SpaceX est depuis longtemps un fournisseur de la défense, mais l'entreprise s'est principalement concentrée sur les fusées et les satellites réutilisables pour l'exploration spatiale, les communications militaires et le renseignement. Elle n'a pas participé au développement de logiciels pour armes offensives.

OpenAI n'est pas la seule entreprise à participer au projet. Elle soutient également la candidature de la société Applied Intuition, mais se limitera à la partie « centre de contrôle des missions », qui traduira les ordres vocaux des commandants en instructions numériques.

La technologie de la société de Sam Altman ne sera pas utilisée pour le contrôle des drones, l'intégration d'armes ou la sélection des cibles.

Le Pentagone arrive

Le Pentagone intensifie son recours à l'intelligence artificielle sur le champ de bataille. En janvier, il a publié une nouvelle stratégie en matière d'IA prévoyant l'utilisation d'agents pour planifier les opérations et cibler les cibles, y compris potentiellement des frappes létales.

En février, les médias ont révélé l'utilisation du système Claude d'Anthropic lors de l'opération visant à capturer le président vénézuélien Nicolas Maduro. Parallèlement, l'agence prévoit de réexaminer son contrat avec la start-up spécialisée en intelligence artificielle. Des désaccords subsistent entre les parties en raison de la politique éthique stricte d'Anthropic, qui interdit l'utilisation du modèle Claude pour la surveillance de masse et les opérations létales autonomes.

« Notre pays a besoin de partenaires prêts à aider nos soldats à gagner n'importe quelle guerre », a déclaré le porte-parole du Pentagone, Sean Parnell.

L'armée américaine fait pression sur quatre grandes entreprises spécialisées dans l'IA pour qu'elles autorisent l'utilisation de cette technologie à « toutes fins légales », notamment le développement d'armes, la collecte de renseignements et les opérations de combat.

Anthropic refuse de lever les restrictions sur la surveillance des citoyens américains et la création d'armes entièrement autonomes. Les négociations sont dans l'impasse, mais il est difficile de remplacer rapidement Claude en raison de la supériorité technologique du modèle pour certaines missions gouvernementales.

Outre le chatbot Anthropic, le Pentagone utilise ChatGPT d'OpenAI, Gemini de Google et Grok de xAI pour les missions non classifiées. Ces trois entités ont accepté d'assouplir les restrictions pour les utilisateurs non classifiés.

Des discussions sont actuellement en cours concernant le transfert des LLM vers un circuit secret et leur utilisation « à des fins légitimes ». L'une des trois sociétés a déjà donné son accord, les deux autres « font preuve de plus de flexibilité » qu'Anthropic.

Axios a appris que Hegseth est « sur le point » de rompre ses liens commerciaux avec Anthropic et de désigner l'entreprise comme un « risque pour la chaîne d'approvisionnement », ce qui signifie que toute entreprise souhaitant travailler avec l'armée américaine devrait cesser de collaborer avec le créateur de Claude.

« Ça va être sacrément difficile à démêler. On va faire en sorte qu'ils paient le prix fort pour nous avoir forcés à prendre cette décision », a déclaré un haut responsable du Pentagone.

Reconnaître Anthropic comme un risque pour la chaîne d'approvisionnement obligerait les entreprises sous contrat avec le Pentagone à certifier qu'elles n'utilisent pas Claude dans leurs processus. Cette mesure est susceptible d'affecter de nombreuses entreprises. La start-up de Dario Amodei avait précédemment affirmé que huit des dix plus grandes entreprises américaines utilisaient ce chatbot.

Rappelons qu'en mars 2025, le Pentagone a annoncé l'utilisation d'agents d'IA pour simuler des affrontements avec des adversaires étrangers.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *