
Une étude menée par la start-up Oumi a révélé que l'assistant IA Gemini de Google génère quotidiennement des millions d'erreurs factuelles. Selon cette analyse, une réponse sur dix contient des inexactitudes. À l'échelle de Google, qui traite cinq mille milliards de requêtes par an, cela représente plus de 57 millions de réponses incorrectes par heure, soit près d'un million par minute.
L'ampleur du problème de précision de Gemini
La startup Oumi a testé Google AI Overviews à l'aide du benchmark SimpleQA, qui comprenait 4 326 requêtes. En octobre 2025, avec le modèle Gemini 2 pour les questions complexes, la précision était de 85 %. En février 2026, après la mise à jour vers Gemini 3, ce chiffre est passé à 91 %. Ainsi, malgré cette amélioration, une réponse sur dix reste incorrecte.
Avec environ cinq mille milliards de requêtes traitées chaque année, même ce niveau de précision se traduit par un afflux massif d'informations inexactes. Les utilisateurs reçoivent des dizaines de millions de réponses incorrectes par heure, soit des centaines de milliers d'erreurs par minute.
Augmentation des divergences avec les sources après la mise à jour
Bien que la précision globale de Gemini se soit améliorée, la vérification s'est dégradée depuis le passage à la version 3. La proportion de réponses pour lesquelles les liens en ligne ne confirment pas pleinement l'information est passée de 37 % à 56 %. Cela signifie que même avec une réponse correcte, il est plus difficile pour les utilisateurs de vérifier les données de manière indépendante, car les liens fournis ne correspondent souvent pas au contenu indiqué.
En mode hors ligne, Gemini 3 présente une imprécision dans 28 % des cas, selon les estimations de Google. Ces écarts soulignent les limites des modèles actuels lorsqu'ils fonctionnent sans accès constant à des données actualisées.
Vulnérabilité de l'IA à la manipulation
Les assistants vocaux, comme Gemini, sont facilement influençables. En février 2026, le journaliste de la BBC, Thomas Germain, a créé un faux blog contenant de fausses informations sur un championnat fictif de mangeurs de hot-dogs parmi les journalistes spécialisés en technologie. Moins de 24 heures après sa publication, Google Gemini et AI Overviews ont commencé à utiliser ce contenu comme source crédible, reprenant ces fausses affirmations dans les réponses des utilisateurs. Cette expérience a démontré la rapidité avec laquelle un simple faux site web peut influencer les réactions de millions d'utilisateurs. L'article original est disponible sur bbc.com.
D'autres experts notent des risques similaires : les fausses informations publiées en ligne pénètrent rapidement dans les bases de connaissances des modèles et se propagent davantage.
La position officielle de Google et Microsoft
Les conditions d'utilisation de Google indiquent clairement que Gemini peut renvoyer des informations inexactes ou inappropriées, y compris concernant des personnes. Il est donc conseillé de vérifier les réponses. Google recommande de toujours confirmer les données importantes auprès de plusieurs sources. Cet avertissement est disponible sur la page d'assistance officielle : support.google.com.
Une mise en garde similaire figure dans la documentation de Microsoft : les réponses de l’IA générative ne garantissent pas une exactitude factuelle à 100 %, et il est conseillé aux utilisateurs de vérifier indépendamment les informations avant utilisation.
Qu’est-ce que cela signifie pour les utilisateurs ?
Lorsqu'on utilise quotidiennement des moteurs de recherche avec des résumés générés par IA, il est essentiel de rester vigilant. Même si la précision a progressé de 85 % à 91 %, l'ampleur des erreurs demeure importante compte tenu du volume considérable de requêtes. Les divergences entre les résultats et les sources compliquent d'autant plus la vérification indépendante.
La start-up Oumi est spécialisée dans les outils d'évaluation et de vérification des modèles d'IA, ce qui rend son analyse particulièrement pertinente pour comprendre les limites concrètes de Gemini. Bien que Google continue d'améliorer ses modèles, les données actuelles montrent qu'une fiabilité totale n'est pas encore atteinte.
En tant qu'utilisateur, il est essentiel de vérifier systématiquement les informations importantes, qu'il s'agisse de conseils médicaux ou de données financières. Ceci est d'autant plus crucial dans un monde où une simple source erronée peut influencer les réactions de millions de personnes en quelques heures.
L'avis de l'IA
Le passage de Gemini 2 à Gemini 3 a certes amélioré la précision, mais a également accentué le problème de l'association des réponses à leurs sources. Les futures mises à jour du modèle s'attacheront probablement à réduire les erreurs factuelles et les cas où les références ne corroborent pas le contenu.
Pour l'instant, la responsabilité de la vérification incombe aux utilisateurs. Vérifier régulièrement les réponses de l'IA auprès de plusieurs sources indépendantes demeure la meilleure pratique à l'ère des modèles génératifs.
