
Telegram a lancé son propre réseau décentralisé, Cocoon (Confidential Compute Open Network), qui traite les requêtes d'IA des utilisateurs au sein d'enclaves sécurisées : des zones de mémoire isolées où les données restent chiffrées même pendant le traitement. Ce nouveau service fait suite à l'échec des négociations avec xAI d'Elon Musk concernant l'intégration de Grok à la messagerie.
Pourquoi l'accord avec xAI a échoué
Les négociations concernant l'intégration potentielle de Grok à Telegram portaient sur une offre de 300 millions de dollars en numéraire et en actions, ainsi que sur 50 % des revenus d'abonnement de xAI via la messagerie. Cependant, Pavel Durov a rejeté l'offre par crainte pour la confidentialité des données des utilisateurs.
Le directeur de Telegram a exposé sa position en octobre 2025 lors de la conférence Blockchain Life 2025 à Dubaï, où il a abordé les risques liés à l'intelligence artificielle centralisée. Il estimait que l'informatique devait appartenir aux individus, et non aux entreprises ou aux gouvernements.
Les fournisseurs d'IA centralisés auraient pu accéder aux données des utilisateurs à des fins d'entraînement des algorithmes, de profilage et de manipulation potentielle. Musk a par la suite nié la finalisation de l'accord, et aucune des deux parties n'a commenté publiquement la question.
Principes d'architecture et de fonctionnement de Cocoon
Le réseau est construit sur la blockchain The Open Network ( TON ) et utilise la technologie TEE (Trusted Execution Environments). Les requêtes des utilisateurs et les résultats des modèles sont traités dans des enclaves sécurisées, empêchant ainsi le propriétaire du GPU et l'opérateur du réseau d'accéder au contenu des données.
Les propriétaires de GPU du monde entier mettent leur puissance de calcul à disposition et reçoivent des récompenses considérables pour les tâches accomplies. Les développeurs d'applications et de mini-applications Telegram peuvent se connecter au réseau et accéder à la puissance de l'IA à moindre coût que via les clouds centralisés.
Telegram est déjà devenu l'un des plus importants clients de son propre réseau. Nombre de ses fonctionnalités d'IA intégrées (traduction de messages, transcription vocale, résumés des longs messages dans les chaînes et aperçu instantané) sont partiellement ou totalement gérées par Cocoon.
application pratique
La mise à jour Telegram du 8 janvier 2026 a introduit la fonctionnalité de résumé IA pour les longs messages des chaînes et les articles en lecture instantanée. Ces résumés sont générés à l'aide de modèles open source basés sur Cocoon.
Ce projet open source est disponible sur un dépôt GitHub. Dans les semaines à venir, l'équipe prévoit d'ajouter des GPU et d'attirer des développeurs dans l'écosystème, offrant ainsi aux utilisateurs de Telegram de nouvelles fonctionnalités d'IA et un contrôle total de leurs données.
L'avis de l'IA
L'analyse des données historiques révèle une tendance intéressante : la plupart des projets de calcul décentralisé (Golem, iExec, Akash Network) ont été confrontés au problème du « démarrage à froid », c'est-à-dire la difficulté d'attirer simultanément fournisseurs et utilisateurs de GPU. Cocoon résout ce problème avec élégance, puisque Telegram est déjà le plus gros utilisateur de son propre réseau.
La rapidité de mise en œuvre est impressionnante : moins de trois mois se sont écoulés entre l’annonce en novembre 2025 et l’intégration d’AI Summary en janvier 2026. Un tel rythme de déploiement est rare pour les projets décentralisés, qui mettent généralement des années à établir un réseau stable. L’équipe parviendra-t-elle à maintenir cette vitesse tout en gérant des milliers de nœuds GPU ?
