Chatbots une réponse sur trois est fausse

Aujourd'hui, les chatbots d'intelligence artificielle fournissent presque toujours une réponse. Mais la majorité des systèmes présentent de graves problèmes de qualité. Selon une étude récente de Newsguard, ils diffusent des informations erronées dans près de 35% des cas, souvent en s'appuyant sur des sources douteuses ou des formats médiatiques manipulateurs.

septembre 2025

Dans l’analyse internationale de Newsguard, dix des chatbots les plus utilisés, dont ChatGPT, Gemini, Perplexity et Claude, ont été testés pour leurs réponses à des sujets d’actualité. Le taux d’erreur est en moyenne de 35%, soit presque le double de l’année précédente. Les questions sur la politique, la santé et les événements internationaux sont particulièrement touchées. De nombreux systèmes traitent les sources douteuses comme des médias d’information éprouvés et relaient la désinformation même lorsqu’elle a été délibérément placée pour tromper.

Exemples de fausses nouvelles propagées
L’étude montre de manière proéminente combien l’IA est souvent manipulée par des scandales inventés et des citations politiques. Par exemple, six systèmes sur dix ont faussement confirmé que le président du parlement moldave avait insulté son peuple en le traitant de « troupeau de moutons ». Il s’agit d’un faux, avec un enregistrement sonore généré par l’IA et un site d’information factice. Dans un autre cas, un chatbot a répandu la rumeur selon laquelle le président ukrainien possédait des biens immobiliers d’une valeur de 1,2 milliard de dollars, une histoire inventée de toutes pièces et basée sur une prétendue lanceuse d’alerte qui n’a jamais existé.

Différences entre les modèles
Alors que Claude, l’assistant IA, est considéré comme le plus fiable avec un taux d’erreur de seulement 10 %, Gemini se situe autour de 17 %. Les chatbots tels que Perplexity, Grok, You.com, Mistral et Meta oscillent entre 33 et 57% d’erreurs. Aujourd’hui, les systèmes répondent immédiatement dans presque tous les cas. Même lorsqu’ils utilisent des informations trop peu validées et qu’ils acceptent de perdre en qualité.

Sources et volonté de renseigner
L’augmentation du taux d’erreur est avant tout liée à la volonté de renseigner des modèles. Alors qu’auparavant ils préféraient ne rien dire, ils fournissent désormais toujours une réponse. Même pour des sources incertaines ou manipulées. Les chatbots risquent notamment d’amplifier les réseaux de propagande ou la désinformation des médias sociaux sans faire preuve d’esprit critique, notamment lorsqu’il s’agit d’informations provenant de régions où les sites Web sérieux sont rares ou de campagnes politiques.

Conséquences pour la sécurité de l’information
La diffusion automatisée et convaincante de fausses informations par les chatbots d’IA augmente la dynamique de risque dans le paysage médiatique. Les fact-checkers avertissent que la désinformation s’infiltre subtilement dans la vie quotidienne et façonne la conscience sociale. Souvent difficile à détecter et donc d’autant plus lourde de conséquences ! L’assurance qualité des systèmes d’information basés sur l’IA devient donc un défi central pour l’avenir de l’information numérique.

Plus d'articles