OpenAI battu ? ChatGPT s’inspire grandement des contenus de Grokipedia

show index hide index

Depuis son lancement, ChatGPT d’OpenAI a été salué comme un modèle de référence dans le domaine de l’artificial intelligence. Néanmoins, des révélations récentes laissent entrevoir un revers de médaille inquiétant : l’IA citant la controversée Grokipedia, l’encyclopédie générée par l’IA d’Elon Musk, pose des questions sur la fiabilité des informations fournies. Alors que Grokipedia sous-tend des thèses discutables et un fonctionnement autonome, ChatGPT, en s’inspirant de ses contenus, pourrait bien entacher sa réputation, ouvrant la voie à une pollution informationnelle difficile à juguler.

Le monde de l’IA traverse une période tumultueuse alors que des révélations récentes mettent en lumière les sources d’information de ChatGPT, le chatbot révolutionnaire d’OpenAI. Selon une enquête du Guardian, la dernière version de ce programme aurait puisé à plusieurs reprises dans les contenus de Grokipedia, une encyclopédie d’Elon Musk dont la fiabilité soulève de vives inquiétudes. Ce phénomène remet en question le mythe d’une IA toute-puissante et neutre, et éclaire le degré d’influence de Grokipedia sur les réponses générées par ChatGPT.

Une révélation troublante

La dernière mise à jour de ChatGPT, connue sous le nom de GPT-5.2, a été révélée comme une source d’un certain nombre de réponses tirées de Grokipedia. Lors de tests conduits par le Guardian, le bot d’OpenAI a cité cette encyclopédie à plusieurs reprises, abordant des sujets aussi cruciaux et délicats que la géopolitique iranienne ou la biographie de figures historiques controversées. Au lieu de s’appuyer sur des références confiables, il utilise donc une source dont la qualité reste à prouver, alimentant ainsi des inquiétudes sur la fiabilité des informations diffusées.

Grokipedia : une encyclopédie sous haute suspicion

Lancée pour rivaliser avec Wikipédia, Grokipedia est rapidement tombée sous le feu des critiques. Des chercheurs ont mis en lumière sa tendance à utiliser des sources jugées problématiques et souvent discutables. Les accusations de désinformation entourant Grokipedia ne sont pas des moindres, surtout lorsque l’on considère son rôle dans la propagation d’idées négationnistes.

Un précédent, très troublant, a vu Grok, le modèle d’IA à l’origine de Grokipedia, générer des explications qui minimisaient les atrocités de l’Holocauste. Cette remise en question de l’historiographie établie a suscité l’indignation au sein de la communauté académique, des experts avertissant du danger inhérent à une IA qui se vérifie elle-même sans passer par un filtre humain.

Des citations problématiques

Il ne s’agit pas uniquement de choix de contenu disons “légers”. Ces citations de Grokipedia engendrent un cercle vicieux à travers lequel une IA cite une autre IA, sans aucune validation humaine. Ce qui, par définition, installe une pollution informationnelle dans le panorama intellectuel actuel. En effet, l’absence de transparence dans la sélection de ses sources par ChatGPT n’est rien de moins qu’une invitation à la désinformation.

L’impact alarmant sur la perception de l’information

Alors que ChatGPT semble jouer la carte de la rapidité d’information, cela soulève des questions sur la précision que les utilisateurs devraient attendre. Des journalistes et chercheurs s’inquiètent que les informations issues de Grokipedia — inexactes et peu fiables — deviennent, par effet de masse, acceptées et intégrées à des discours considérés comme valides. Cette tendance à privilégier la rapidité sur la rigueur risque d’éroder la confiance dans les systèmes d’information.

To read À Wall Street, le secteur financier ébranlé par les turbulences suscitées par l’Intelligence Artificielle

Les responsabilités d’OpenAI

OpenAI, face à ces critiques, tente de défendre son produit en soulignant un système de filtrage visant à limiter l’accès à des contenus nuisibles. Cependant, il s’interroge de plus en plus sur sa *capacité* à contrôler le matériau qui sort de son IA. En traitant Grokipedia comme l’une de ses sources d’information, OpenAI encourage involontairement la circulation d’un contenu hautement contesté, faisant de son IA un acteur clé dans la propagation de la désinformation.

La question n’est pas seulement qui gagne ou perd dans cette lutte des idées, mais bien quel rôle ces algorithmes joueront dans l’avenir d’une société où l’information est de plus en plus manipulée et où la quête de la vérité devient l’exception plutôt que la norme. Il semble désormais s’imposer que plus qu’une simple technologie, l’IA soulève des défis éthiques qui n’ont pas encore été suffisamment explorés.

Rate this article

InterCoaching is an independent media. Support us by adding us to your Google News favorites:

Share your opinion