X supprimera la monétisation des publications de vidéos d'IA non étiquetées sur les conflits militaires.

Le réseau social X désactivera temporairement la monétisation pour les utilisateurs qui publient des vidéos générées de conflits militaires sans étiquetage approprié, a annoncé Nikita Beer, directrice produit du flux algorithmique de la plateforme.

Les contrevenants seront exclus du programme de partage des revenus pendant 90 jours. En cas de récidive, ils seront bannis définitivement du système de monétisation. La plateforme ne prévoit toutefois pas de supprimer les publications ni les comptes.

Beer a souligné que, pendant les guerres, l'accès à des informations fiables est d'une importance capitale, et que les réseaux neuronaux modernes facilitent la manipulation du public.

Il existe deux façons de détecter les faux réseaux sociaux :

  • en utilisant le système de vérification des faits participatif Community Notes ;
  • grâce à des algorithmes de détection de contenu basés sur l'IA et les métadonnées.

Cette mise à jour des règles intervient dans un contexte d'afflux de vidéos générées sur les récents conflits géopolitiques.

Le problème des faux contenus existait déjà sur la plateforme avant même l'adoption massive des réseaux neuronaux : des utilisateurs faisaient régulièrement passer des séquences du jeu vidéo Arma 3 pour de véritables combats. Cependant, les générateurs d'IA disponibles ont considérablement facilité la création et la diffusion de désinformation.

Parallèlement, le système de rémunération de X récompense financièrement les créateurs de contenu pour un fort taux d'engagement. Cela incite les détenteurs de comptes premium à publier des deepfakes viraux, sans se soucier des faits, dans l'espoir d'un gain rapide.

La solution X transfère de fait la tâche de détection des fausses informations à la communauté des utilisateurs, la sanction se limitant à une perte de revenus temporaire plutôt qu'à la suppression de la désinformation elle-même de la plateforme.

Pour rappel, on a appris en février que l'armée américaine avait utilisé Claude d'Anthropic lors de l'opération visant à capturer le président vénézuélien Nicolas Maduro.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *