show index hide index
L’ère de l’intelligence artificielle est marquée par l’essor des chatbots, transformant notre façon de rechercher et d’interagir avec l’information. Cependant, ces outils ne sont pas à l’abri de la manipulation. Récemment, certaines entités prorusses ont réussi à infiltrer des récits trompeurs dans les systèmes de ces agents conversationnels, amplifiant ainsi des informations biaisées. La nature probabiliste des technologies de l’IA, qui privilégient la quantité sur la qualité, les rend très vulnérables à ces influences. En conséquence, les résultats produits par les modèles linguistiques peuvent varier considérablement selon la langue ou le contexte géopolitique, posant ainsi de sérieux défis pour la véracité des informations véhiculées.
Dans un monde où l’intelligence artificielle occupe une place toujours plus centrale, les chatbots basés sur des technologies de génération de langage naturel sont malheureusement exploités pour diffuser de la désinformation prorusse. Cet article explore comment ces intelligences artificielles véhiculent involontairement de faux récits, les raisons de cette propagation et les pistes envisagées pour mitiger ces risques.
Des chatbots pris au piège
La propagation de la désinformation par les chatbots d’intelligence artificielle est une réalité préoccupante mise en évidence par l’observatoire de la désinformation NewsGuard. En janvier 2026, des tests menés par l’organisme ont montré que ces bots relavaient régulièrement la désinformation émanant du réseau prorusse Pravda, bien que leurs contenus soient documentés comme faux. Cette capacité à répandre des récits biaisés pose des questions cruciales sur leur fiabilité.
Les caractéristiques probabilistes des modèles d’IA
L’une des raisons de cette propagation réside dans la nature probabiliste des modèles de langage sous-jacents aux chatbots. Ceux-ci tendent à prioriser l’information la plus fréquemment rencontrée sur Internet, ce qui n’est pas nécessairement la plus véridique. Les auteurs de la désinformation exploitent cette faille en publiant des contenus à grande échelle qui rencontrent une réception favorable par les algorithmes des chatbots.
L’impact de la langue sur la désinformation
Les résultats des chatbots peuvent varier considérablement en fonction de la langue utilisée. Des études montrent que dans des langues moins courantes ou où le fact-checking est moins présent, de fausses informations se propagent plus facilement. Les tests ont démontré que les principales IA répondent différemment selon la langue, relayant parfois de la désinformation dans les langues comme le slovène ou le finnois.
L’hypothèse de l’attaque intentionnelle
Existe-t-il une stratégie délibérée pour manipuler les outils d’IA générative ? Certains indices soutiennent cette hypothèse. En effet, des textes en finnois, difficiles à comprendre par un public humain, pourraient viser les chatbots plutôt que les individus. Des campagnes telles que ‘Storm 1516’, orchestrées par des individus influents comme John Mark Dougan, soulignent ce stratagème potentiel pour inonder le système d’IA avec des récits biaisés.
La question des données et du manque de fiabilité
Bien que l’hypothèse d’une manipulation délibérée soit préoccupante, des lacunes dans les données ou un défaut de sources fiables pourraient aussi expliquer la présence de liens vers des sites de propagande russe au sein des modèles linguistiques. La qualité des données d’entraînement reste un défi majeur pour les développeurs d’IA, impactant la précision et la fiabilité des réponses générées.
To read Giorgia Meloni : quand l’intelligence artificielle crée des images surprenantes en lingerie
Initiatives pour contrer la désinformation
Face à ces enjeux, il devient impératif pour les géants de l’IA d’adopter des mesures de protection robustes. Une approche envisagée inclut l’utilisation de listes noires et blanches pour réglementer les sites que les chatbots peuvent utiliser comme références. La nécessité d’améliorer les politiques de ‘trust and safety’ est soulignée par des chercheurs pour garantir que les outils d’IA ne deviennent pas des véhicules de propagation massive de faux récits.