
Les autorités financières britanniques mènent des discussions urgentes avec l'agence gouvernementale de cybersécurité et les principales banques afin d'évaluer les risques posés par un nouveau modèle d'IA appelé Anthropic, rapporte le Financial Times.
Des représentants de la Banque d'Angleterre, de la Financial Conduct Authority et du Trésor sont en discussion avec le Centre national de cybersécurité afin d'examiner conjointement les vulnérabilités potentielles des systèmes informatiques critiques identifiées par le réseau neuronal.
La publication indique que dans les deux prochaines semaines, les plus grandes institutions financières, compagnies d'assurance et bourses recevront des informations sur les cyber-risques associés à Claude Mythos.
Craintes liées à l'IA
Le nouveau réseau neuronal s'est avéré si puissant que ses créateurs ont renoncé à sa diffusion publique. À la place, le projet Glasswing a été lancé : une initiative visant à tester l'outil dans un environnement contrôlé avec la participation d'AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, Nvidia et Palo Alto Networks.
Le motif d'inquiétude était que, en quelques semaines seulement, Mythos avait découvert des milliers de vulnérabilités zero-day dans les principaux systèmes d'exploitation et navigateurs web.
L'ampleur de la menace potentielle a incité le secrétaire au Trésor américain, Scott Bessant, et le président de la Réserve fédérale, Jerome Powell, à convoquer une réunion d'urgence avec les dirigeants de Wall Street. Les responsables ont averti les hauts responsables, notamment la présidente de Citigroup, Jane Fraser, et le PDG de Goldman Sachs, David Solomon, que le lancement de Mythos marquait une nouvelle ère en matière de cybersécurité.
La Banque du Canada et les plus grandes institutions financières du pays se sont également réunies pour « évaluer les risques systémiques associés à l’émergence d’un modèle d’IA aussi avancé ». Cette initiative vise à « renforcer la résilience opérationnelle du secteur financier, un secteur essentiel pour le pays ».
Exagérer le battage médiatique ?
TechCrunch a noté que la restriction d'accès à Mythos pourrait faire partie d'une campagne marketing visant à attirer l'attention sur ce nouveau modèle d'IA.
En mars, Dan Lahav, directeur de la start-up spécialisée en IA Irregular, a souligné que si l'analyse automatisée des vulnérabilités joue un rôle important, le véritable avantage d'une « faille » découverte pour les pirates informatiques dépend de nombreux facteurs.
Anthropic affirme que Mythos est capable d'exploiter un plus large éventail de vulnérabilités qu'Opus, mais il n'est pas certain que ce LLM soit véritablement la solution idéale en matière de cybersécurité.
Aisle, une start-up, affirme avoir réussi à reproduire la plupart des performances de Mythos grâce à d'autres réseaux neuronaux. Selon l'entreprise, il n'existe pas de modèle unique en matière de cybersécurité : le choix de l'outil dépend toujours de la tâche spécifique.
L'une des raisons pour lesquelles les principaux laboratoires d'IA peuvent limiter intentionnellement les diffusions est de pouvoir obtenir des contrats exclusifs avec de grandes entreprises, tout en rendant difficile pour les concurrents de copier les outils par distillation.
« Il s'agit d'une stratégie marketing destinée à masquer le fait que les modèles haut de gamme ne sont désormais disponibles que par le biais d'accords avec les entreprises et ne sont plus fournis aux petits laboratoires pour des tests », a fait remarquer David Crawshaw, PDG d'exe.dev.
Il a ajouté que lorsque Mythos sera ouvert au public, un nouveau master en droit de pointe sera exclusivement réservé aux entreprises clientes. Cette approche permet de maintenir les flux de financement et de limiter les entreprises qui exploitent les algorithmes.
Anthropique en première ligne
Ces derniers mois, la startup Anthropic a considérablement élargi son public. Ses solutions sont très demandées et son chiffre d'affaires croît de façon exponentielle.
Les journalistes de TechCrunch ont rapporté que lors de la conférence HumanX sur l'IA à San Francisco, des milliers de professionnels de l'IA ont discuté des capacités de cette technologie, et Claude a été cité le plus souvent comme l'un des meilleurs produits du marché.
Anthropic a été mentionné dans de nombreuses tables rondes. ChatGPT a été à peine évoqué. Un expert a fait remarquer qu'OpenAI avait « perdu la main ».
De nombreux participants à la conférence ont souligné que l'entreprise de Sam Altman avait perdu le cap de son développement. Un article récent concernant le dirigeant de la start-up a jeté de l'huile sur le feu, le décrivant comme un dictateur et un imposteur ayant renié sa noble mission initiale.
Il est trop tôt pour cacher OpenAI
Une analyse récente des données financières d'OpenAI et d'Anthropic a révélé que ces deux entreprises sont « les entreprises à la croissance la plus rapide de l'histoire ».
Dans ce contexte, la « chute » de la société créée par Altman indique simplement qu'elle n'est plus le leader incontesté. L'entreprise a des concurrents, ce qui est normal dans la plupart des secteurs, comme l'a souligné TechCrunch.
OpenAI n'a manifestement aucune intention de perdre sa position dominante. L'entreprise a annoncé un nouveau plan à 100 dollars offrant un accès plus large à son outil de programmation Codex.
Pour rappel, en avril, Anthropic a lancé un environnement permettant d'exécuter des tâches d'agents complexes et de longue durée : Claude Managed Agents.
