
Le réseau social X désactivera temporairement la monétisation pour les utilisateurs qui publient des vidéos générées de conflits militaires sans étiquetage approprié, a annoncé Nikita Beer, directrice produit du flux algorithmique de la plateforme.
Aujourd'hui, nous révisons nos politiques de partage des revenus des créateurs afin de préserver l'authenticité du contenu du flux et d'empêcher toute manipulation du programme.
En temps de guerre, il est crucial que la population ait accès à des informations fiables provenant du terrain. Grâce aux technologies d'IA actuelles…
– Nikita Bier (@nikitabier) 3 mars 2026
Les contrevenants seront exclus du programme de partage des revenus pendant 90 jours. En cas de récidive, ils seront bannis définitivement du système de monétisation. La plateforme ne prévoit toutefois pas de supprimer les publications ni les comptes.
Beer a souligné que, pendant les guerres, l'accès à des informations fiables est d'une importance capitale, et que les réseaux neuronaux modernes facilitent la manipulation du public.
Il existe deux façons de détecter les faux réseaux sociaux :
- en utilisant le système de vérification des faits participatif Community Notes ;
- grâce à des algorithmes de détection de contenu basés sur l'IA et les métadonnées.
Cette mise à jour des règles intervient dans un contexte d'afflux de vidéos générées sur les récents conflits géopolitiques.
Jusqu'à présent, les Iraniens ont délibérément lancé leurs vieux missiles et drones, les utilisant comme leurres consommables pour affaiblir les défenses aériennes américaines et israéliennes.
Cette stratégie a manifestement fonctionné.À présent, ils intensifient leurs efforts, déployant sur le terrain des missiles balistiques et des drones plus perfectionnés.
Alors… pic.twitter.com/0w1RiT0guC
— Richard (@ricwe123) 3 mars 2026
Le problème des faux contenus existait déjà sur la plateforme avant même l'adoption massive des réseaux neuronaux : des utilisateurs faisaient régulièrement passer des séquences du jeu vidéo Arma 3 pour de véritables combats. Cependant, les générateurs d'IA disponibles ont considérablement facilité la création et la diffusion de désinformation.
Le ministre de l'Information, Ataullah Tarrar, a salué les actions des forces armées pakistanaises pour leur réponse rapide et dévastatrice à l'agression et à l'attaque lâche de l'Inde et a publiquement dénoncé le chauvinisme et le narcissisme militaires de l'Inde.
« L’Inde commence, ne fournit aucune preuve, puis se fait passer pour une victime… pic.twitter.com/KRmcGGJ4il »
— Gouvernement du Pakistan (@GovtofPakistan) 8 mai 2025
Parallèlement, le système de rémunération de X récompense financièrement les créateurs de contenu pour un fort taux d'engagement. Cela incite les détenteurs de comptes premium à publier des deepfakes viraux, sans se soucier des faits, dans l'espoir d'un gain rapide.
La solution X transfère de fait la tâche de détection des fausses informations à la communauté des utilisateurs, la sanction se limitant à une perte de revenus temporaire plutôt qu'à la suppression de la désinformation elle-même de la plateforme.
Pour rappel, on a appris en février que l'armée américaine avait utilisé Claude d'Anthropic lors de l'opération visant à capturer le président vénézuélien Nicolas Maduro.
